成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

別老扯什么Hadoop了,你的數據根本不夠大

云計算 Hadoop
本文原名“Don’t use Hadoop when your data isn’t that big ”,出自有著多年從業經驗的數據科學家Chris Stucchio,紐約大學柯朗研究所博士后,搞過高頻交易平臺,當過創業公司的CTO,更習慣稱自己為統計學者。對了,他現在自己創業,提供數據分析、推薦優化咨詢服務,他的郵件是:stucchio@gmail.com 。

本文原名“Don’t use Hadoop when your data isn’t that big ”,出自有著多年從業經驗的數據科學家Chris Stucchio,紐約大學柯朗研究所博士后,搞過高頻交易平臺,當過創業公司的CTO,更習慣稱自己為統計學者。對了,他現在自己創業,提供數據分析、推薦優化咨詢服務,他的郵件是:stucchio@gmail.com 。

“你有多少大數據和Hadoop的經驗?”他們問我。我一直在用Hadoop,但很少處理幾TB以上的任務。我基本上只是一個大數據新手——知道概念,寫過代碼,但是沒有大規模經驗。

接下來他們會問:“你能用Hadoop做簡單的group by和sum操作嗎?”我當然會,但我會說需要看看具體文件格式。

他們給我一個U盤,里面有所有的數據,600MB,對,他們所有的數據。不知道為什么,我用pandas.read_csv(Pandas是一種Python數據分析庫)而不是Hadoop完成了這個任務后,他們顯得很不滿意。

Hadoop其實是挺局限的。它無非是運行某個通用的計算,用SQL偽代碼表示就是: SELECT G(…) FROM table GROUP BY F(…) 你只能改變G和F操作,除非要在中間步驟做性能優化(這可不怎么好玩!)。其他一切都是死的。

(關于MapReduce,之前作者寫過一篇“41個詞講清楚MapReduce”,可以參考。)

Hadoop里,所有計算都必須按照一個map、一個group by、一個aggregate或者這種計算序列來寫。這和穿上緊身衣一樣,多憋得慌啊。許多計算用其他模型其實更適合。忍受緊身衣的唯一原因就是,可以擴展到極大極大的數據集。可你的數據集實際上很可能根本遠遠夠不上那個數量級。

可是呢,因為Hadoop和大數據是熱詞,世界有一半的人都想穿上緊身衣,即使他們根本不需要。

可我的數據有好幾百MB呢!Excel都裝不下

對Excel很大可不是什么大數據。有很多好工具——我喜歡用的是基于Numpy的Pandas。它可以將幾百MB數據以高效的向量化格式加載到內存,在我已經3年的老筆記本上,一眨眼的功夫,Numpy就能完成1億次浮點計算。Matlab和R也是很棒的工具。

數百MB數據一般用一個簡單的Python腳本逐行讀取文件、處理,然后寫到了一個文件就行了。

可我的數據有10G呢!

我剛買了一臺筆記本電腦。16G內存花了141.98美元,256GB SSD多收200美元。另外,如果在Pandas里加載一個10GB的csv文件,實際在內存里并沒有那么大——你可以將 “17284932583” 這樣的數值串存為4位或者8位整數,“284572452.2435723”存為8位雙精度。

最差情況下,你還可以不同時將所有數據都一次加載到內存里。

可我的數據有100GB/500GB/1TB!

一個2T的硬盤才94.99美元,4T是169.99。買一塊,加到桌面電腦或者服務器上,然后裝上PostgreSQL。

Hadoop的適用范圍遠小于SQL和Python腳本

從計算的表達能力來說,Hadoop比SQL差多了。Hadoop里能寫的計算,在SQL或者簡單的Python腳本都可以更輕松地寫出來。

SQL是直觀的查詢語言,沒有太多抽象,業務分析師和程序員都很常用。SQL查詢往往非常簡單,而且一般也很快——只要數據庫正確地做了索引,要花幾秒鐘的查詢都不太多見。

Hadoop沒有任何索引的概念,它只知道全表掃描。而且Hadoop抽象層次太多了——我之前的項目盡在應付Java內存錯誤、內存碎片和集群競用了,實際的數據分析工作反而沒了時間。

如果你的數據結構不是SQL表的形式(比如純文本、JSON、二進制),一般寫一小段Python或者Ruby腳本按行處理更直接。保存在多個文件里,逐個處理即可。SQL不適用的情況下,從編程來說Hadoop也沒那么糟糕,但相比Python腳本仍然沒有什么優勢。

除了難以編程,Hadoop還一般總是比其他技術方案要慢。只要索引用得好,SQL查詢非常快。比如要計算join,PostgreSQL只需查看索引(如果有),然后查詢所需的每個鍵。而Hadoop呢,必須做全表掃描,然后重排整個表。排序通過多臺機器之間分片可以加速,但也帶來了跨多機數據流處理的開銷。如果要處理二進制文件,Hadoop必須反復訪問namenode。而簡單的Python腳本只要反復訪問文件系統即可。

可我的數據超過了5TB!

你的命可真苦——只能苦逼地折騰Hadoop了,沒有太多其他選擇(可能還能用許多硬盤容量的高富帥機器來扛),而且其他選擇往往貴得要命(腦海中浮現出IOE等等字樣……)。

用Hadoop唯一的好處是擴展。如果你的數據是一個數TB的單表,那么全表掃描是Hadoop的強項。此外的話,請關愛生命,盡量遠離Hadoop。它帶來的煩惱根本不值,用傳統方法既省時又省力。

原文鏈接:http://www.kankanews.com/ICkengine/archives/47621.shtml

責任編輯:王程程 來源: 看引擎
相關推薦

2018-08-06 16:04:31

數據科學家數據庫數據分析

2022-12-01 17:17:09

React開發

2014-09-24 09:40:16

大數據

2023-09-11 08:30:30

Creator工廠方法

2025-04-27 10:14:57

2015-04-28 15:03:20

大數據中小企業的痛

2016-11-10 20:50:20

微軟開源

2021-01-29 10:50:04

數據中臺數據數據管理

2011-12-31 09:11:08

OracleAMD

2017-12-28 10:44:08

JavaScript瀏覽器網頁

2015-10-23 18:41:55

寒冬一周歪評BAT

2015-09-18 10:01:11

2014-09-29 09:38:10

BASHBUG

2022-06-14 11:15:09

代碼驅動

2013-02-28 09:32:02

私有云資源池自服務

2023-06-20 09:33:52

微軟VR

2013-12-12 10:00:03

大數據

2013-11-04 09:43:34

FacebookHadoop大數據

2020-10-15 09:33:48

網盤
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久久久久久久久久国产 | 欧美电影免费网站 | 欧美情趣视频 | 亚洲成人av在线播放 | 中文字幕日韩欧美一区二区三区 | 欧美一级片a | 最新中文字幕久久 | 一区二区精品视频 | 一区二区在线不卡 | 亚洲天堂日韩精品 | 精品自拍视频 | 一本大道久久a久久精二百 欧洲一区二区三区 | 国产乱一区二区三区视频 | 久久成人国产精品 | 国产一区二区三区四区五区加勒比 | 免费一区 | 中文字幕 亚洲一区 | 91精品久久久久久久久久入口 | 福利视频一区二区 | 久久久久亚洲 | 97伦理电影 | 国产东北一级毛片 | 免费看爱爱视频 | 日韩中文一区 | 美女黄18岁以下禁止观看 | 亚洲一区亚洲二区 | 天天躁日日躁狠狠的躁天龙影院 | 五月婷婷丁香婷婷 | 欧美一级二级视频 | 欧美在线视频二区 | 日韩最新网站 | 日本人麻豆 | 一级特黄视频 | 国产99视频精品免费播放照片 | 成人免费xxxxx在线视频 | 亚洲欧美视频在线观看 | 欧美a区 | 91 在线| 中文字幕国产日韩 | 国产精品成人国产乱 | 欧美a在线观看 |