乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      Atlas 2.1.0 實踐(2)—— 安裝Atlas

       小世界的野孩子 2022-02-16

      在完成Atlas編譯以后,就可以進行Atlas的安裝了。Atlas的安裝主要是安裝Atlas的Server端,也就Atlas的管理頁面,并確保Atlas與Kafka Hbase Solr等組件的集成。

      Atlas的系統(tǒng)架構如下,在確保 底層存儲與UI界面正常后,之后就可以進行與Hive等組件的集成調試了。

      一、環(huán)境準備

      安裝之前 先要準備好

      JDK1.8

      Zookeeper

      Kafka

      Hbase

      Solr

      在啟動Atlas時會配置這些環(huán)境變量的地址,所以一定要確保以上組件正常運行。

      由于在編譯時可以選擇內部集成,所以這些Atlas是可以自帶的,但是JDK一定要安裝好。

      在安裝Altas中,需要Solr 預先創(chuàng)建好collection

       bin/solr create -c vertex_index -shards 3 -replicationFactor 2
      
       bin/solr create -c edge_index -shards 3 -replicationFactor 2
      
      bin/solr create -c fulltext_index -shards 3 -replicationFactor 2
      

      在solr中驗證創(chuàng)建成功。

      二、安裝Atlas

      到編譯好的包的路徑下 apache-atlas-sources-2.1.0/distro/target

      將生成好的安裝包 apache-atlas-2.1.0-server.tar.gz 拷貝到目標路徑下。

      解壓:

      tar -zxvf apache-atlas-2.1.0-server.tar.gz
      

      三、修改配置

      進入conf目錄下:

      vi  atlas-env.sh 
      

      在此指定JAVA_HOME和是否要用內嵌啟動

      export JAVA_HOME=/opt/jdk1.8.0_191/
      export MANAGE_LOCAL_HBASE=true
      export MANAGE_LOCAL_SOLR=true  
      

      如果使用內嵌,那么配置結束,直接去 啟動Atlas

      但是大部分時候,需要使用已經有的組件進行集成,所以設置為false。

      export JAVA_HOME=/opt/jdk1.8.0_191/
      export MANAGE_LOCAL_HBASE=false
      export MANAGE_LOCAL_SOLR=false 
      #注意修改Hbase配置文件路徑
      export HBASE_CONF_DIR=/opt/hbase/conf
      

      修改其他配置

      vim atlas-application.properties 
      

      這里就是設置Hbase Solr等配置

      
      #Hbase地址  就是Hbase配置的zookeeper地址
      atlas.graph.storage.hostname=slave01:2181,slave02:2181,slave03:2181
      
      atlas.audit.hbase.zookeeper.quorum=slave01:2181,slave02:2181,slave03:2181
      
      #solr服務器地址
      atlas.graph.index.search.solr.http-urls=http://slave01:8984/solr
      
      #kafka地址
      atlas.notification.embedded=false
      atlas.kafka.zookeeper.connect=slave01:2181,slave02:2181,slave03:2181
      atlas.kafka.bootstrap.servers=slave01:9092,slave02:9092,slave03:9092
      
      #atlas地址
      atlas.rest.address=http://slave01:21000
      
      

      四、啟動Atlas

      bin/atlas_start.py
      

      啟動成功后訪問:

      http://slave01:21000

      admin/admin登錄

      成功!!

      踩坑全紀錄

      HBase: apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseid

      hbase的問題 我的是因為沒有指定對hbase的配置文件

      hbase配置文件的 zookeeper.znode.parent 并不是 /hbase/hbaseid

      could not instantiate implementation: org.janusgraph.diskstorage.solr.Solr6Index
      cannot connect to cluster at ... cluster not found /not ready

      提示無法找到solr,在填寫atlas.graph.index.search.solr.zookeeper-url時需要添加znode,如2181/solr

      具體是什么去solr配置文件里,或者頁面上找

      could not register new index field with index backend

      Solr有問題,檢查Solr 確保Solr正常啟動了

      Can not find the specified config set: vertex_index

      solr需要先建 三個索引 vertex_index, edge_index, fulltext_index

      了解大數(shù)據實時計算 感受數(shù)據流動之美 歡迎關注 實時流式計算

        本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
        轉藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多