Spark計算環(huán)境中的種間數據均衡放置算法研究.pdf_第1頁
已閱讀1頁,還剩61頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、隨著網絡信息技術的不斷發(fā)展,全球使用互聯網的人數在持續(xù)的增加,互聯網已經在很多行業(yè)進行實踐和應用,帶來了互聯網數據的批量式增加,分析處理這些海量的互聯網數據是一個至關重要的現實問題,同時也給分布式計算提供了新的發(fā)展機遇。Google提出的MapReduce,它的特點是可靠性高、編程簡單、能自動并行處理作業(yè),是一種用于處理大數據的分布式并行編程模型。Spark是基于內存計算的分布式并行計算框架,Spark通過引入RDD數據模型及基于內存的

2、運算模式,使其能很好地適應大數據的數據挖掘這中場景,并且在迭代計算方面優(yōu)于Hadoop,迅速成為了廣大企業(yè)、學者的研究重點。此外,很多科研單位和企業(yè)開始在海量數據的處理和研究中開始應用Spark。
  自MapReduce變成一個高效的和流行的并行數據處理編程框架,中間數據key值的偏斜成為影響系統(tǒng)性能的一個重要瓶頸。當MapReduce處理的數據分布不均勻時,會造成有些任務比其他任務運行較慢的情況,而整個作業(yè)的執(zhí)行時間是由最慢的

3、那個任務決定的,當處理數據存在傾斜會導致處理數據分布不平衡從而產生“短腿”作業(yè),最終影響整體的運行效果。因此增加了整個作業(yè)的完成時間,使系統(tǒng)性能下降。MapReduce中數據傾斜問題可以通過統(tǒng)計key值頻率提前制定分配方案的方法來解決。
  為解決在Spark計算框架下shuffle過程中的buckets容器負載不平衡問題。本文提出了對中間數據塊分割和組合算法SCID(segmentation and combinationalg

4、orithm for skew intermediate data)。由于keys值的數量不可統(tǒng)計,除非輸入數據被map任務處理,因此本文基于蓄水池的采樣算法以得到中間key值的分布數據。對比原始buckets中數據加載機制,SCID根據每個map任務的鍵/值元組的數據大小進行排序,并有序的填充到相關buckets中。如果一個cluster超過當前的buckets容量將被分割。在填充滿這個buckets后,其余clusters將進入下一

5、次迭代,通過這種方式,數據的總大小在每個bucket大約是相等的。對于每一個map任務,每個reduce任務會從一個特定的buckets獲取到中間結果,這樣每個bucket中map的任務數量在reduce任務端達到負載均衡。我們在Spark1.1.0上運行SCID算法并通過廣泛使用的標準Benchmark評估其性能,比如:Sort,TextSearch,Word Count。實驗結果表明,我們的算法不僅可以實現更高的總體平均負載平衡性能

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論