在完成Atlas編譯以后,就可以進行Atlas的安裝了。Atlas的安裝主要是安裝Atlas的Server端,也就Atlas的管理頁面,并確保Atlas與Kafka Hbase Solr等組件的集成。 Atlas的系統(tǒng)架構如下,在確保 底層存儲與UI界面正常后,之后就可以進行與Hive等組件的集成調試了。 一、環(huán)境準備安裝之前 先要準備好 JDK1.8 Zookeeper Kafka Hbase Solr 在啟動Atlas時會配置這些環(huán)境變量的地址,所以一定要確保以上組件正常運行。 由于在編譯時可以選擇內部集成,所以這些Atlas是可以自帶的,但是JDK一定要安裝好。 在安裝Altas中,需要Solr 預先創(chuàng)建好collection
在solr中驗證創(chuàng)建成功。 二、安裝Atlas到編譯好的包的路徑下 apache-atlas-sources-2.1.0/distro/target 將生成好的安裝包 apache-atlas-2.1.0-server.tar.gz 拷貝到目標路徑下。 解壓:
三、修改配置進入conf目錄下:
在此指定JAVA_HOME和是否要用內嵌啟動
如果使用內嵌,那么配置結束,直接去 啟動Atlas 但是大部分時候,需要使用已經有的組件進行集成,所以設置為false。
修改其他配置
這里就是設置Hbase Solr等配置
四、啟動Atlas
啟動成功后訪問: admin/admin登錄 成功!! 踩坑全紀錄HBase: apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseidhbase的問題 我的是因為沒有指定對hbase的配置文件 hbase配置文件的 zookeeper.znode.parent 并不是 /hbase/hbaseid could not instantiate implementation: org.janusgraph.diskstorage.solr.Solr6Indexcannot connect to cluster at ... cluster not found /not ready提示無法找到solr,在填寫atlas.graph.index.search.solr.zookeeper-url時需要添加znode,如2181/solr 具體是什么去solr配置文件里,或者頁面上找 could not register new index field with index backendSolr有問題,檢查Solr 確保Solr正常啟動了 Can not find the specified config set: vertex_indexsolr需要先建 三個索引 了解大數(shù)據實時計算 感受數(shù)據流動之美 歡迎關注 實時流式計算 |
|