新聞中心
本篇內(nèi)容主要講解“Hadoop和spark的性能比較”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學(xué)習(xí)“Hadoop和spark的性能比較”吧!
我們提供的服務(wù)有:網(wǎng)站設(shè)計、網(wǎng)站制作、微信公眾號開發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、阿勒泰ssl等。為上千余家企事業(yè)單位解決了網(wǎng)站和推廣的問題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的阿勒泰網(wǎng)站制作公司
Hadoop和spark的性能比較
Spark在內(nèi)存中運行速度比Hadoop快100倍,在磁盤上運行速度快10倍。眾所周知,Spark在數(shù)量只有十分之一的機器上,對100TB數(shù)據(jù)進(jìn)行排序的速度比Hadoop MapReduce快3倍。此外,Spark在機器學(xué)習(xí)應(yīng)用中的速度同樣更快,例如Naive Bayes和k-means。
由處理速度衡量的Spark性能之所以比Hadoop更優(yōu),原因如下:
1、每次運行MapReduce任務(wù)時,Spark都不會受到輸入輸出的限制。事實證明,應(yīng)用程序的速度要快得多。
2、Spark的DAG可以在各個步驟之間進(jìn)行優(yōu)化。Hadoop在MapReduce步驟之間沒有任何周期性連接,這意味著在該級別不會發(fā)生性能調(diào)整。
但是,如果Spark與其他共享服務(wù)在YARN上運行,則性能可能會降低并導(dǎo)致RAM開銷內(nèi)存泄漏。出于這個原因,如果用戶有批處理的訴求,Hadoop被認(rèn)為是更高效的系統(tǒng)。
到此,相信大家對“Hadoop和spark的性能比較”有了更深的了解,不妨來實際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!
網(wǎng)站名稱:Hadoop和spark的性能比較
當(dāng)前網(wǎng)址:http://ef60e0e.cn/article/jgpodg.html