成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大數據生態圈及其衍生物

大數據
大數據這個概念本身就太大而且太寬,如果一定要嚴格定義是非常困難的一件事,不過Hadoop生態圈或者由其延伸的泛生態系統,基本上都是為了處理大量數據誕生的——一般而言,這種數據依賴單機很難完成。

大數據這個概念本身就太大而且太寬,如果一定要嚴格定義是非常困難的一件事,不過Hadoop生態圈或者由其延伸的泛生態系統,基本上都是為了處理大量數據誕生的——一般而言,這種數據依賴單機很難完成。

這個圈子里的工具,就像是我們廚房里的各種廚具——各自都有不同的用處,但也有一部分功能重合,比如盆和豌都可以用來喝湯,削皮刀和菜刀都可以用來去皮。

[[249259]]

但是,盆用來喝湯未免奇怪,削皮刀切菜也是萬萬不能。即使你強行要創造一些奇異的組合,即使最終完成工作,卻不一定是最快、最好的選擇。

大數據,首先你要能存的下大數據。

對傳統的單機文件系統來說,橫跨不同機器幾乎是不可能完成的任務。而通過HDFS(Hadoop Distributed FileSystem),你可以通過橫跨上千甚至上萬臺機器來完成大量數據得存儲,同時這些數據全部都能歸屬在同一個文件系統之下。你可以通過引用一個文件路徑獲取存儲在許多臺機器上的數據文件。作為一個使用者,你完全不用去計較文件具體存儲的位置,這個文件系統會為你搞定一切。

我們當然不是為了搜集數據而進行存儲,我們還要用數據做一些事情。雖然我們通過HDFS存下了橫跨上千臺機器的數據,我們依然面臨一個問題——這些數據過于龐大,如果只交給一臺機器處理,我們可能得等上幾周甚至更長。這些可能以T甚至于P來計量單位的數據,只靠一臺機器真的能跑到地老天荒。

對于很多公司,這是無法接受的事情——我們都知道有各種熱度排行,加入一臺機器處理這個數據、計算熱度、進行發布,可能一周之后出來結果,但大家早已經不關心了。

所以使用大量機器進行處理是必然的選擇。在大量機器處理過程中,必須處理一些事務:任務分配、緊急情況處理、信息互通等等,這時候必須引入MapReduce / Tez / Spark 。這其中,前者可以成為計算引擎的第一代產品,后兩者則是經過優化后的下一代。MapReduce采用了非常簡單的計算模型設計,可以說只用了兩個計算的處理過程,但是這個工具已經足夠應付大部分的大數據工作了。

什么是Map?什么是Reduce?

考慮如果你要統計一個巨大的文本文件存儲在類似HDFS上,你想要知道這個文本里各個詞的出現頻率。你啟動了一個MapReduce程序。Map階段,幾百臺機器同時讀取這個文件的各個部分,分別把各自讀到的部分分別統計出詞頻,產生類似(hello, 12100次),(world,15214次)等等這樣的Pair(我這里把Map和Combine放在一起說以便簡化);這幾百臺機器各自都產生了如上的集合,然后又有幾百臺機器啟動Reduce處理。Reducer機器A將從Mapper機器收到所有以A開頭的統計結果,機器B將收到B開頭的詞匯統計結果(當然實際上不會真的以字母開頭做依據,而是用函數產生Hash值以避免數據串化。因為類似X開頭的詞肯定比其他要少得多,而你不希望數據處理各個機器的工作量相差懸殊)。然后這些Reducer將再次匯總,(hello,12100)+(hello,12311)+(hello,345881)= (hello,370292)。每個Reducer都如上處理,你就得到了整個文件的詞頻結果。

這看似是個很簡單的模型,但很多算法都可以用這個模型描述了。

Map+Reduce的簡單模型很黃很暴力,雖然好用,但是很笨重。第二代的Tez和Spark除了內存Cache之類的新feature,本質上來說,是讓Map/Reduce模型更通用,讓Map和Reduce之間的界限更模糊,數據交換更靈活,更少的磁盤讀寫,以便更方便地描述復雜算法,取得更高的吞吐量。

有了MapReduce,Tez和Spark之后,程序員發現,MapReduce的程序寫起來真麻煩。他們希望簡化這個過程。這就好比你有了匯編語言,雖然你幾乎什么都能干了,但是你還是覺得繁瑣。你希望有個更高層更抽象的語言層來描述算法和數據處理流程。于是就有了Pig和Hive。Pig是接近腳本方式去描述MapReduce,Hive則用的是SQL。它們把腳本和SQL語言翻譯成MapReduce程序,丟給計算引擎去計算,而你就從繁瑣的MapReduce程序中解脫出來,用更簡單更直觀的語言去寫程序了。

有了Hive之后,人們發現SQL對比Java有巨大的優勢。一個是它太容易寫了。剛才詞頻的東西,用SQL描述就只有一兩行,MapReduce寫起來大約要幾十上百行。而更重要的是,非計算機背景的用戶終于感受到了愛:我也會寫SQL!于是數據分析人員終于從乞求工程師幫忙的窘境解脫出來,工程師也從寫奇怪的一次性的處理程序中解脫出來。大家都開心了。Hive逐漸成長成了大數據倉庫的核心組件。甚至很多公司的流水線作業集完全是用SQL描述,因為易寫易改,一看就懂,容易維護。

自從數據分析人員開始用Hive分析數據之后,它們發現,Hive在MapReduce上跑,真雞巴慢!流水線作業集也許沒啥關系,比如24小時更新的推薦,反正24小時內跑完就算了。但是數據分析,人們總是希望能跑更快一些。比如我希望看過去一個小時內多少人在充氣娃娃頁面駐足,分別停留了多久,對于一個巨型網站海量數據下,這個處理過程也許要花幾十分鐘甚至很多小時。而這個分析也許只是你萬里長征的第一步,你還要看多少人瀏覽了跳蛋多少人看了拉赫曼尼諾夫的CD,以便跟老板匯報,我們的用戶是猥瑣男悶騷女更多還是文藝青年/少女更多。你無法忍受等待的折磨,只能跟帥帥的工程師蟈蟈說,快,快,再快一點!

于是Impala,Presto,Drill誕生了(當然還有無數非著名的交互SQL引擎,就不一一列舉了)。三個系統的核心理念是,MapReduce引擎太慢,因為它太通用,太強壯,太保守,我們SQL需要更輕量,更激進地獲取資源,更專門地對SQL做優化,而且不需要那么多容錯性保證(因為系統出錯了大不了重新啟動任務,如果整個處理時間更短的話,比如幾分鐘之內)。這些系統讓用戶更快速地處理SQL任務,犧牲了通用性穩定性等特性。如果說MapReduce是大砍刀,砍啥都不怕,那上面三個就是剔骨刀,靈巧鋒利,但是不能搞太大太硬的東西。

這些系統,說實話,一直沒有達到人們期望的流行度。因為這時候又兩個異類被造出來了。他們是Hive on Tez / Spark和SparkSQL。它們的設計理念是,MapReduce慢,但是如果我用新一代通用計算引擎Tez或者Spark來跑SQL,那我就能跑的更快。而且用戶不需要維護兩套系統。這就好比如果你廚房小,人又懶,對吃的精細程度要求有限,那你可以買個電飯煲,能蒸能煲能燒,省了好多廚具。

上面的介紹,基本就是一個數據倉庫的構架了。底層HDFS,上面跑MapReduce/Tez/Spark,在上面跑Hive,Pig。或者HDFS上直接跑Impala,Drill,Presto。這解決了中低速數據處理的要求。

責任編輯:未麗燕 來源: 大數據觀察
相關推薦

2016-11-01 14:30:09

大數據大數據技術

2015-03-04 11:19:59

2016-01-07 13:19:21

大數據分析生態圈

2020-09-21 09:57:03

大數據大數據技術數據

2020-12-17 11:04:22

2016-07-14 15:57:06

華為

2012-06-15 10:03:57

2025-04-30 03:20:00

2018-10-11 20:38:27

大數據生態圈分布式

2025-06-13 08:01:34

2016-04-25 10:52:25

億信華辰

2015-01-14 15:42:26

易傳媒阿里巴巴

2017-05-18 11:40:22

互聯網

2022-12-08 00:09:20

CSS生態圈技術趨勢

2019-01-15 08:58:40

Kubernetes生態圈Docker

2017-11-27 12:39:05

科天云協作云

2013-07-22 17:41:58

2015-09-02 13:15:31

Python

2023-04-04 13:31:18

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久久久久免费毛片精品 | 精品美女 | 欧美电影免费观看高清 | 免费国产一区二区视频 | 日日日日日日bbbbb视频 | 伊人二区 | 伊人网站| 欧美精品久久久久 | 91久久国产综合久久 | 日本污视频 | 久久精品国产99国产精品 | 国产精品精品视频一区二区三区 | 色综合天天综合网国产成人网 | 国产精品伦理一区二区三区 | 九色在线观看 | 国产精品一区网站 | 日本在线视频一区二区 | 亚洲欧美中文日韩在线v日本 | 精品一区二区三区免费毛片 | 午夜一级做a爰片久久毛片 精品综合 | 成人精品国产免费网站 | 久久久精品一区二区三区 | 欧美特级黄色 | 欧美成人一区二区 | 午夜精品一区二区三区在线观看 | 免费成人av网站 | 福利网站导航 | 别c我啊嗯国产av一毛片 | 日韩欧美国产精品一区二区三区 | 欧美性网 | 中文在线一区二区 | 做a视频在线观看 | 国产精品国产成人国产三级 | 日韩在线欧美 | 国产精品午夜电影 | 精品国产色 | 亚洲精品毛片av | 中文字幕 在线观看 | 成人欧美一区二区三区在线播放 | 国产一级一级毛片 | 免费亚洲一区二区 |