成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Hbase和Hadoop操作文件性能測試

開發 項目管理 Hadoop
Hbase和Hadoop相信大家應該聽說過,那么你知道Hbase和Hadoop操作文件的性能嗎,這里就向大家介紹一下如何測試Hbase和Hadoop操作文件的性能,歡迎大家一起來學習。

本節向大家介紹一下測試Hbase和Hadoop操作文件的性能的方法,主要有六個方面的內容,希望通過本節簡單的介紹大家能夠掌握測試Hbase和Hadoop操作文件的性能的方法,下面就讓我們一起來學習吧。

測試Hbase和Hadoop操作文件的性能

1:單線程hbase的文件存入

StringparentPath="F:/pic/2003-zhujiajian";
File[]files=getAllFilePath(parentPath);
HBaseConfigurationconfig=newHBaseConfiguration();
HTabletable=newHTable(config,newText("offer"));
longstart=System.currentTimeMillis();
for(Filefile:files){
if(file.isFile()){
byte[]data=getData(file);
createRecore(table,file.getName(),"image_big",data);
}
}
longend=System.currentTimeMillis();
System.out.println("timecost="+(end-start));
108037206bytes,303個fileswritefromlocalwindowstoremotehbase,cost23328or21001milliseconds

2:單線程hadoop的文件存入

Configurationconf=newConfiguration();
FileSystemfs=FileSystem.get(conf);
Pathsrc=newPath("F:/pic/2003-zhujiajian");
Pathdst=newPath("/user/zxf/image");
longstart=System.currentTimeMillis();
fs.copyFromLocalFile(src,dst);
longend=System.currentTimeMillis();
System.out.println("timecost="+(end-start));
108037206bytes,303fileswritefromlocalwindowstoremotehdfs,cost26531or32407milliseconds

3:單線程hbase的文件讀取

108037206bytes,303filesreadfromhdfstolocalcost479350milliseconds

4:單線程hadoop的文件讀取

108037206bytes,303filesreadfromhdfstolocalcost14188milliseconds

5:深入測試Hbase和Hadoop操作文件性能

取幾個文件對比
fileSize(byte)hdfstime(ms)hbasetime(ms)
12341140131314688
708474634359
82535153907
5529616125

6思考

測試Hbase和Hadoop操作文件性能期間發生了一個regionoffline的錯誤,重啟服務也還是報錯,后然重新formatnamenode,deletedatanode上數據,重啟發現還有datanode沒有起來,ssh上去發現java進程死了
浪費了1個多小時,仔細想了一下HTable分散到各個HRegionServer上的各子表,一臺datanode掛了,當有數據請求時,連不上,所以報regionoffline錯誤

為什么hbase讀取的performance那么差?我單個讀取11m的文件需要14000milliseconds,而hdfs真個文件目錄的讀取才14188milliseconds
DBMSorHBase-butdousallafavorandjustkeepthepathinthemetadata,看來,hbase不合適存放二進制文件,存放圖片這樣的application還是hdfs更合適了。

a:重新測試了幾遍,包括重啟hbase,hdfs,hbase的讀取速度還是和原先沒大差別

b:刪除原有數據,重新寫入后,再測試讀發現,小文件的讀取效率搞了很多
fileSize(byte)1(ms)2(ms)3(ms)
12341140117501110911718
708474625610672
82535787878
55296476247

這樣就是說讀cache有較大的性能提升,在data數量不是非常大的時候,瓶頸是在讀取速度上,100k一下的數據讀取效率還是可以的,花費時間基本上和要讀取的data的長度成正比
但是之前的效率為什么沒有變?難道不能cache從磁盤讀取的數據?
然后試著讀取了最先放入的一批文件中的幾個,現在還是很慢,重復b的操作后效率提升了。原因可能是系統在創建row'sclunmdata的時候打上了cache標志,cache適合clunm系統綁定在一起的,hbase啟動的時候會把打了cache標志的colunm數據讀到memory中.
所以在我執行altertableofferchangeimage_bigIN_MEMORY之前所創建的數據都沒有cache標志,此cache不是像其他的cache,啟動的時候不做load,訪問后再cache,這樣一來,cache的數據愈多必然造成啟動速度的加慢。本節關于測試Hbase和Hadoop操作文件的性能介紹完畢,請關注本節其他相關報道。
 

【編輯推薦】

  1. Hdoop/Hbase文件配置方法詳解
  2. HadoopHBase實現配置簡單的單機環境
  3. Hadoop集群與Hadoop性能優化
  4. Hadoop 從Yahoo向Google的技術轉折
  5. 深入剖析Hadoop HBase

 

 

責任編輯:佚名 來源: csdn.net
相關推薦

2009-12-16 11:04:51

Ruby操作文件權限

2010-06-04 11:00:27

hadoop性能優化

2021-04-05 17:22:13

Lua文件數據編程語言

2011-12-29 09:03:14

VIM

2020-11-19 10:30:28

Linux

2011-08-29 10:15:13

FacebookHadoopHBase

2009-10-29 17:15:26

VB.NET控件

2009-08-19 17:44:15

C#操作文本文件

2009-08-20 09:15:20

C#操作文本文件

2010-03-18 17:43:46

python 編程語言

2023-02-06 09:34:00

JavaHutool操作文件

2009-08-20 10:17:27

C#操作文本文件

2010-06-03 13:08:51

2011-08-01 09:39:43

2010-01-11 17:05:32

VB.NET操作文本文

2009-08-20 09:58:06

C#操作文本文件

2011-07-20 14:29:33

HBase

2012-06-28 10:18:01

數據庫

2023-09-13 14:47:34

性能測試開發

2010-05-24 14:59:29

Hadoop集群
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产在线视频一区二区 | 国产日本精品视频 | 亚洲美乳中文字幕 | 欧美视频第三页 | 久久久久国色av免费观看性色 | 日本精品一区二区 | 欧美视频成人 | 国产日韩欧美精品一区二区 | 99热精品在线观看 | 日韩毛片播放 | av免费网址 | 久久日本 | 亚州精品天堂中文字幕 | 精品一区国产 | 亚洲一区二区三区在线视频 | 亚洲免费久久久 | 色偷偷888欧美精品久久久 | 日韩三级| 欧美一区二区另类 | av看看| 日韩中文字幕在线观看视频 | 日韩专区中文字幕 | 97精品国产97久久久久久免费 | 一区二区三区日韩 | cao视频| 天堂av资源| 成人国产精品免费观看视频 | 在线播放国产视频 | 久久久人| 国产精品国产三级国产aⅴ浪潮 | 亚洲欧洲一区二区 | 六月成人网 | 毛片在线免费播放 | 99精品国产一区二区三区 | 亚洲欧美在线一区 | 婷婷毛片| 中文字幕第九页 | 99久久精品免费看国产小宝寻花 | 精品中文字幕在线观看 | 成年视频在线观看 | 亚洲一区二区三区在线免费 |