成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大數據:學Hadoop好還是Spark好?

大數據 Hadoop Spark
相信看這篇文章的你們,都和我一樣對Hadoop和Apache Spark的選擇有一定的疑惑,今天查了不少資料,我們就來談談這兩種 平臺的比較與選擇吧,看看對于工作和發展,到底哪個更好。

相信看這篇文章的你們,都和我一樣對Hadoop和Apache Spark的選擇有一定的疑惑,今天查了不少資料,我們就來談談這兩種 平臺的比較與選擇吧,看看對于工作和發展,到底哪個更好。

[[263420]]

一、Hadoop與Spark

1.Spark

Spark是一個用來實現快速而通用的集群計算的平臺。速度方面,Spark擴展了廣泛使用的MapReduce計算模型,而且高效地支持更多計算模式,包括交互式查詢和流處理。

Spark項目包含多個緊密集成的組件。Spark的核心是一個對由很多計算任務組成的、運行在多個工作機器或者是一個計算集群上的應用進行調度、分發以及監控的計算引擎。

2.Hadoop

Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。Hadoop的框架最核心的設計就是:HDFS和MapReduce。HDFS為海量的數據提供了存儲,則MapReduce為海量的數據提供了計算。

二、異與同

解決問題的層面不一樣

首先,Hadoop和Apache Spark兩者都是大數據框架,但是各自存在的目的不盡相同。Hadoop實質上更多是一個分布式數據基礎設施: 它將巨大的數據集分派到一個由普通計算機組成的集群中的多個節點進行存儲,意味著您不需要購買和維護昂貴的服務器硬件。同時,Hadoop還會索引和跟蹤這些數據,讓大數據處理和分析效率達到***的高度。Spark,則是那么一個專門用來對那些分布式存儲的大數據進行處理的工具,它并不會進行分布式數據的存儲。

兩者可合可分

Hadoop除了提供為大家所共識的HDFS分布式數據存儲功能之外,還提供了叫做MapReduce的數據處理功能。所以這里我們完全可以拋開Spark,使用Hadoop自身的MapReduce來完成數據的處理。

相反,Spark也不是非要依附在Hadoop身上才能生存。但如上所述,畢竟它沒有提供文件管理系統,所以,它必須和其他的分布式文件系統進行集成才能運作。這里我們可以選擇Hadoop的HDFS,也可以選擇其他的基于云的數據系統平臺。但Spark默認來說還是被用在Hadoop上面的,畢竟,大家都認為它們的結合是***的。

順帶說一下什么是mapreduce:我們要數圖書館中的所有書。你數1號書架,我數2號書架。這就是“Map”。我們人越多,數書就更快。現在我們到一起,把所有人的統計數加在一起。這就是“Reduce”。

Spark數據處理速度秒殺MapReduce

Spark因為其處理數據的方式不一樣,會比MapReduce快上很多。MapReduce是分步對數據進行處理的: ”從集群中讀取數據,進行一次處理,將結果寫到集群,從集群中讀取更新后的數據,進行下一次的處理,將結果寫到集群,等等…“ Booz Allen Hamilton的數據科學家Kirk Borne如此解析。

反觀Spark,它會在內存中以接近“實時”的時間完成所有的數據分析:“從集群中讀取數據,完成所有必須的分析處理,將結果寫回集群,完成,” Born說道。Spark的批處理速度比MapReduce快近10倍,內存中的數據分析速度則快近100倍。如果需要處理的數據和結果需求大部分情況下是靜態的,且你也有耐心等待批處理的完成的話,MapReduce的處理方式也是完全可以接受的。

但如果你需要對流數據進行分析,比如那些來自于工廠的傳感器收集回來的數據,又或者說你的應用是需要多重數據處理的,那么你也許更應該使用Spark進行處理。大部分機器學習算法都是需要多重數據處理的。此外,通常會用到Spark的應用場景有以下方面:實時的市場活動,在線產品推薦,網絡安全分析,機器日記監控等。

Recovery 恢復

兩者的災難恢復方式迥異,但是都很不錯。因為Hadoop將每次處理后的數據都寫入到磁盤上,所以其天生就能很有彈性的對系統錯誤進行處理。Spark的數據對象存儲在分布于數據集群中的叫做彈性分布式數據集(RDD: Resilient Distributed Dataset)中。“這些數據對象既可以放在內存,也可以放在磁盤,所以RDD同樣也可以提供完成的災難恢復功能”

三、學哪個?

其實,正如所了解的那樣,Spark的確是大數據行業中的后起之秀,與Hadoop相比,Spark有很多的優勢。Hadoop之所以在大數據行業能夠得到充分的認同主要是因為:

  • Hadoop解決了大數據的可靠存儲和處理問題;
  • Hadoop的開源性,這能讓很多大數據從業人員在里面找到靈感,方便實用;
  • Hadoop經過了多年的開發,擁有完整的生態系統。
  • HDFS在由普通PC組成的集群上提供高可靠的文件存儲,通過將塊保存多個副本的辦法解決服務器或硬板壞掉的問題。
  • MapReduce通過簡單的Mapper和Reducer的抽象提供一個變成模型,可以在一個由幾十臺至上百臺的PC組成的不可靠集群上并發地,分布式地處理大量的數據集,而把并發、分布式和故障恢復等計算細節隱藏起來。

Hadoop也有許多局限和不足,籠統的講,在數據量不斷擴大的情況下,Hadoop的運算速度會越發顯得吃力。雖然現階段,Hadoop在大數據行業內仍然有很高頻率的應用,但不難想象在若干年后,數據量又上升幾個數量級時,Hadoop所面臨的窘境。而Spark的運算速度是Hadoop的百分之一甚至更快,因此,在未來,Spark必然會取代Hadoop,主宰大數據行業。

那是不是就可以跳過Hadoop,只學Spark呢?當然不是,有以下原因:

  • 現階段,Hadoop仍然主導著大數據領域,我們可以學習先進的技術,但更是為了現階段的就業,就目前階段而言,學大數據必學Hadoop。
  • MapReduce中有許多經典的思想,值得我們學習,這對我們理解大數據十分有幫助。
  • 確切的講,Spark要替換的是Hadoop中的MapReduce,而不是Hadoop,Hadoop是一個工具包,而Spark和MapReduce一樣,只是一種工具而已。

結論:

如果你是往業界的算法工程方面發展,那么兩個都要學,Hadoop要了解,Spark要熟悉。如果你是大數據研究人員,那么要精通這兩種。所以,這里的建議是,對于有志于在ML和大數據等領域發展的各位,可以按照Java - Hadoop - Spark這樣的路徑,如果你有C++和SQL的基礎,那么學習曲線將不會特別陡峭,對于spark來說,學一點Scala則會更有幫助

責任編輯:未麗燕 來源: 搜狐
相關推薦

2020-08-07 07:39:19

編程語言JavaPython

2019-11-12 14:34:07

大數據MATLAB算法

2012-06-26 10:08:56

云計算大數據

2021-04-15 14:29:09

程序員前端軟件測試

2018-10-09 15:26:19

JavaPython語言

2018-09-26 14:17:00

編程語言JavaPython

2024-11-06 10:30:22

Flink互聯網物聯網

2012-08-27 09:42:42

云計算云時代大數據

2018-03-28 14:53:51

布線智能家居有線

2016-10-20 14:04:09

2020-10-09 14:39:55

計算機IT技術

2013-05-15 10:02:22

大數據養豬

2018-07-09 11:26:49

2013-07-01 11:15:55

代碼產品

2017-10-19 08:28:15

大數據HadoopSpark

2021-12-14 09:56:51

HadoopSparkKafka

2017-11-17 08:27:21

2012-06-21 09:56:50

VMware大數據

2020-10-16 10:21:23

大數據開發軟件開發技術

2019-07-22 10:45:31

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲一区在线日韩在线深爱 | 中文字幕精品一区二区三区精品 | av天天澡天天爽天天av | 久久精品a| 精品国产一二三区 | 久久一二三区 | 欧美中文字幕在线观看 | 成人福利网 | 99视频| 日本超碰在线 | 亚洲精品在 | 狠狠操狠狠干 | 日韩乱码在线 | 国产精品久久一区二区三区 | 中文字幕视频在线看5 | 欧美精品一区二区在线观看 | 欧美一区二区三区大片 | 国产一区二区在线91 | 日韩影音 | 欧美人妖网站 | 日韩欧美专区 | 一级毛片在线播放 | 日韩av大片免费看 | 一区二区在线免费观看 | 久久精品日产第一区二区三区 | 国产成人精品久久 | 国产欧美精品区一区二区三区 | 亚洲在线久久 | 亚洲一区 中文字幕 | 一区二区播放 | 国产色片 | 国产精品久久久久久久久久免费 | 毛片a级 | 亚洲三区在线 | 国产欧美在线一区二区 | 欧美一区二区三区 | 欧美久久久久久 | 久久av网站| 99爱视频| 午夜精品福利视频 | 亚洲欧美中文字幕 |