乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      Spark性能調(diào)優(yōu)篇八之shuffle調(diào)優(yōu)

       Coder編程 2022-02-22

      1 task的內(nèi)存緩沖調(diào)節(jié)參數(shù)

      2 reduce端聚合內(nèi)存占比

      spark.shuffle.file.buffer                     map task的內(nèi)存緩沖調(diào)節(jié)參數(shù),默認是32kb
      
      spark.shuffle.memoryFraction          reduce端聚合內(nèi)存占比,默認0.2
      
      

      怎么判斷在什么時候?qū)@兩個參數(shù)進行調(diào)整呢?

      通過監(jiān)控平臺查看每個executor的task的shuffle write和shuffle read的運行次數(shù),如果發(fā)現(xiàn)這個指標的運行次數(shù)比較多,那么就應該考慮這兩個參數(shù)的調(diào)整了;這個參數(shù)調(diào)整有一個前提,spark.shuffle.file.buffer參數(shù)每次擴大一倍的方式進行調(diào)整,spark.shuffle.memoryFraction參數(shù)每次增加0.1進行調(diào)整。

      shuffle產(chǎn)生大量文件

      為了解決shuffle產(chǎn)生大量文件的問題,我們可以在map端輸出的位置,將文件進行合并操作,即使用

      spark.shuffle.consolidateFiles 參數(shù)來合并文件,具體的使用方式為

      new SparkConf().set("spark.shuffle.consolidateFiles","true")

      作者:z小趙
      鏈接:https://www.jianshu.com/p/069c37aad295
      來源:簡書
      著作權歸作者所有。非商業(yè)轉(zhuǎn)載請注明出處。

        本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多