成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Hive 如何快速拉取大批量數據

大數據
用hive來做數倉類操作,或者大數據的運算,是沒有疑問的,至少在你沒有更多選擇之前。當我們要hive來做類似于大批量數據的select時,也許問題就會發生了變化。

用hive來做數倉類操作,或者大數據的運算,是沒有疑問的,至少在你沒有更多選擇之前。

當我們要hive來做類似于大批量數據的select時,也許問題就會發生了變化。

[[349824]]

1. 通用解決方案之分頁

首先,我們要基于一個事實,就是沒有哪個數據庫可以無限制的提供我們select任意數據量的數據。比如常用的 mysql, oracle, 一般你select 10w左右的數據量時已經非常厲害了。而我們的解決方法也比較簡單,那就是分頁獲取,比如我一頁取1w條,直到取完為止。同樣,因為hive基于都支持sql92協議,所以你也可以同樣的方案去解決大數據量的問題。

分頁的解決方案會有什么問題?首先,我們要明白分頁是如何完成的,首先數據庫server會根據條件運算出所有或部分符合條件的數據(取決是否有額外的排序),然后再根據分頁偏移信息,獲取相應的數據。所以,一次次的分頁,則必定涉及到一次次的數據運算。這在小數據量的情況下是可以接受的,因為計算機的高速運轉能力。但是當數據量大到一定程序時,就不行了。比如我們停滯了許多年的大數據領域解決方案就是很好的證明。

本文基于hive處理數據,也就是說數據量自然也是大到了一定的級別,那么用分頁也許就不好解決問題了。比如,單次地運算也許就是3-5分鐘(基于分布式并行計算系統能力),當你要select 100w數據時,如果用一頁1w的運算,那么就是100次來回,1次3-5分鐘,100次就是5-8小時的時間,這就完全jj了。誰能等這么長時間?這樣處理的最終結果就是,業務被砍掉,等著財務結賬了。

所以,我們得改變點什么!

2. 使用hive-jdbc

jdbc本身不算啥,只是一個連接協議。但它的好處在于,可以維持長連接。這個連接有個好處,就是server可以隨時輸出數據,而client端則可以隨時處理數據。這就給了我們一個機會,即比如100w的數據運算好之后,server只需源源不斷的輸出結果,而client端則源源不斷地接收處理數據。

所以,我們解決方案是,基于hive-jdbc, 不使用分頁,而全量獲取數據即可。這給我們帶來莫大的好處,即一次運算即可。比如1次運算3-5分鐘,那么總共的運算也就是3-5分鐘。

看起來不錯,解決了重復運算的問題。好似萬事大吉了。

具體實現就是引入幾個hive-jdbc的依賴,然后提交查詢,依次獲取結果即可。樣例如下:

  1. <!-- pom 依賴 --> 
  2. <!-- https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc --> 
  3. <dependency> 
  4.     <groupId>org.apache.hive</groupId> 
  5.     <artifactId>hive-jdbc</artifactId> 
  6.     <version>2.3.4</version> 
  7. </dependency> 
  8.  
  9. -- 

 

  1. // 測試hive-jdbc 
  2. import java.sql.Connection
  3. import java.sql.PreparedStatement; 
  4. import java.sql.ResultSet; 
  5. import java.sql.SQLException; 
  6. import java.sql.Statement; 
  7.  
  8. import java.sql.DriverManager; 
  9.   
  10. public class HiveJdbcTest { 
  11.     private static Connection conn = getConnnection(); 
  12.     private static PreparedStatement ps; 
  13.     private static ResultSet rs; 
  14.     // 獲取所有數據 
  15.     public static void getAll(String tablename) { 
  16.         String sql="select * from " + tablename; 
  17.         System.out.println(sql); 
  18.         try { 
  19.             ps = prepare(conn, sql); 
  20.             rs = ps.executeQuery(); 
  21.             int columns = rs.getMetaData().getColumnCount(); 
  22.             while(rs.next()) { 
  23.                 for(int i=1;i<=columns;i++) { 
  24.                     System.out.print(rs.getString(i));   
  25.                     System.out.print("\t\t"); 
  26.                 } 
  27.                 System.out.println(); 
  28.             } 
  29.         }  
  30.         catch (SQLException e) { 
  31.             e.printStackTrace(); 
  32.         } 
  33.   
  34.     } 
  35.     // 測試 
  36.     public static void main(String[] args) {  
  37.         String tablename="t1"
  38.         HiveJdbcTest.getAll(tablename); 
  39.     } 
  40.   
  41.     private static String driverName = "org.apache.hive.jdbc.HiveDriver"
  42.     private static String url = "jdbc:hive2://127.0.0.1:10000/"
  43.     private static Connection conn; 
  44.     // 連接hive庫 
  45.     public static Connection getConnnection() { 
  46.         try { 
  47.             Class.forName(driverName); 
  48.             conn = DriverManager.getConnection(url, "hive""123"); 
  49.         } 
  50.         catch(ClassNotFoundException e) { 
  51.             e.printStackTrace(); 
  52.         } 
  53.         catch (SQLException e) { 
  54.             e.printStackTrace(); 
  55.         } 
  56.         return conn; 
  57.     } 
  58.     public static PreparedStatement prepare(Connection conn, String sql) { 
  59.         PreparedStatement ps = null
  60.         try { 
  61.             ps = conn.prepareStatement(sql); 
  62.         }  
  63.         catch (SQLException e) { 
  64.             e.printStackTrace(); 
  65.         } 
  66.         return ps; 
  67.     } 

樣例代碼,無需糾結。簡單的jdbc操作樣板。總體來說就是,不帶分頁的接收全量數據。

但是,這個會有什么問題?同樣,小數據量時無任何疑問,但當數據量足夠大時,每一次的數據接收,都需要一次網絡通信請示,且都是單線程的。我們假設接受一條數據花費1ms, 那么接收1000條數就是1s, 6k條數據就是1min。36w條數據就是1h, 額,后面就無需再算了。同樣是不可估量的時間消耗。(實際情況也許會好點,因為會有buffer緩沖的存在)

為什么會這樣呢?運算量已經減小了,但是這網絡通信量,我們又能如何?實際上,問題不在于網絡通信問題,而在于我們使用這種方式,使我們從并行計算轉到了串行計算的過程了。因為只有單點的數據接收,所以只能將數據匯集處理。從而就是一個串行化的東西了。

所以,我們更多應該從并行這一層面去解決問題。

3. 基于臨時表實現

要解決并行變串行的問題,最根本的辦法就是避免一條條讀取數據。而要避免這個問題,一個很好想到的辦法就是使用臨時表,繞開自己代碼的限制。讓大數據集群自行處理并行計算問題,這是個不錯的想法。

但具體如何做呢?我們面臨至少這么幾個問題:

  • 如何將數據寫入臨時表?
  • 寫入臨時表的數據如何取回?是否存在瓶頸問題?
  • 臨時表后續如何處理?

我們一個個問題來,第1個,如何寫臨時表問題:我們可以選擇先創建一個臨時表,然后再使用insert into select ... from ... 的方式寫入,但這種方式非常費力,首先你得固化下臨時表的數據結構,其次你要處理多次寫入問題。看起來不是最好的辦法。幸好,hive中或者相關數據庫產品都提供了另一種更方便的建臨時表的方法: create table xxx as select ... from ... 你只需要使用一個語句就可以將結果寫入到臨時表了。但需要注意的是,我們創建時,需要指定好我們需要的格式,否則最終結果也許不是我們想要的,比如我們需要使用','分隔數據而非tab, 我們需要使用 text 形式的數據,而非壓縮的二進制格式。

以下是個使用樣例:

 

  1. -- 外部使用 create table 包裹 
  2. CREATE TABLE tmp_2020110145409001  
  3.     ROW FORMAT DELIMITED 
  4.     FIELDS TERMINATED BY ',' 
  5.     STORED AS TEXTFILE as  
  6.         -- 具體的業務select sql 
  7.         select t1.*, t2.* from test t1 left join test2 t2 on t1.id = t2.t_id 
  8.     ; 

如此,我們就得到所需的結果了。以上結果,在hive中表現為一個臨時表。而其背后則是一個個切分的文件,以','號分隔的文本文件,且會按照hive的默認存儲目錄存放。(更多具體語法請查詢官網資料)

接下來,我們要解決第2個問題:如何將數據取回?這個問題也不難,首先,現在結果已經有了,我們可以一行行地讀取返回,就像前面一樣。但這時已經沒有了數據運算,應該會好很多。但明顯還是不夠好,我們仍然需要反復的網絡通信。我們知道,hive存儲的背后,是一個個切分的文件,如果我們能夠將該文件直接下載下來,那將會是非常棒的事。不錯,最好的辦法就是,直接下載hive的數據文件,hive會存儲目錄下,以類似于 part_0000, part_0001... 之類的文件存放。

那么,我們如何才能下載到這些文件呢?hive是基于hadoop的,所以,很明顯我們要回到這個問題,基于hadoop去獲取這些文件。即 hdfs 獲取,命令如下:

 

  1. // 查看所有分片數據文件列表 
  2. hdfs dfs -ls hdfs://xx/hive/mydb.db/* 
  3. // 下載所有數據文件到 /tmp/local_hdfs 目錄 
  4. hdfs dfs -get hdfs://xx/hive/mydb.db/* /tmp/local_hdfs 

我們可以通過以上命令,將數據文件下載到本地,也可以hdfs的jar包,使用 hdfs-client 進行下載。優缺點是:使用cli的方式簡單穩定但依賴于服務器環境,而使用jar包的方式則部署方便但需要自己寫更多代碼保證穩定性。各自選擇即可。

最后,我們還剩下1個問題:如何處理臨時表的問題?hive目前尚不支持設置表的生命周期(阿里云的maxcompute則只是一個 lifecycle 選項的問題),所以,需要自行清理文件。這個問題的實現方式很多,比如你可以自行記錄這些臨時表的創建時間、位置、過期時間,然后再每天運行腳本清理表即可。再簡單點就是你可以直接通過表名進行清理,比如你以年月日作為命令開頭,那么你可以根據這日期刪除臨時表即可。如:

 

  1. -- 列舉表名 
  2. show tables like 'dbname.tmp_20201101*'
  3. -- 刪除具體表名 
  4. drop table dbname.tmp_2020110100001 ;  

至此,我們的所有問題已解決。總結下:首先使用臨時表并行地將結果寫入;其次通過hdfs將文件快速下載到本地即可;最后需要定時清理臨時表;這樣,你就可以高效,無限制的為用戶拉取大批量數據了。

不過需要注意的是,我們的步驟從1個步驟變成了3個步驟,增加了復雜度。(實際上你可能還會處理更多的問題,比如元數據信息的對應問題)復雜度增加的最大問題就在于,它會帶來更多的問題,所以我們一定要善于處理好這些問題,否則將會帶來一副作用。

 

責任編輯:未麗燕 來源: 博客園
相關推薦

2021-06-28 10:25:47

MySQL數據庫重復數據

2021-09-14 13:15:43

MySQL數據庫腳本

2020-12-18 10:40:00

ExcelJava代碼

2010-11-02 10:52:15

批量清理文件

2018-08-09 08:59:56

數據庫MySQL性能優化

2010-04-26 14:52:05

Oracle大批量數據

2010-07-16 09:57:44

SQL Server

2019-11-22 10:24:17

開源技術 趨勢

2009-09-25 11:34:54

Hibernate處理Hibernate批量

2010-05-10 10:59:06

日立JP1新版本V9

2009-11-04 13:46:36

ADO.NET數據庫

2023-02-20 14:59:42

模型訓練

2022-09-14 23:06:45

2020-12-02 11:30:28

騰訊數據中心新基建

2010-05-20 11:18:39

2022-08-31 14:24:03

數字化轉型小程序平臺

2021-02-10 09:34:40

Python文件的壓縮PyCharm

2017-02-08 10:00:29

大數據hadoopHDFS

2009-08-18 09:04:55

Windows 7安裝移動硬盤安裝

2011-03-24 17:21:42

Oracle數據庫Redo故障
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人影院在线观看 | 中文精品视频 | 亚洲欧洲国产视频 | 91av在线影院| 亚洲欧美日韩久久 | 久草在线| 国产精品一区一区 | www国产成人免费观看视频,深夜成人网 | 综合九九 | 一区二区在线 | 欧美精品1区2区 | 国产精品亚洲精品 | 日韩av黄色 | 久热久 | 欧美精品一区二区三区在线 | 波多野结衣二区 | 91亚洲免费 | 欧美一级片久久 | 色男人天堂av | 国产精品久久久久久影院8一贰佰 | 一二区视频 | 韩日有码 | 成人永久免费视频 | 婷婷久久五月 | 国产自产c区 | 精品视频一区二区 | 亚洲一区二区三区在线播放 | 国产精品久久久久久久岛一牛影视 | 香蕉一区二区 | 久久精品免费 | 免费观看一级特黄欧美大片 | 人妖videosex高潮另类 | 久久久久综合 | 国产区在线视频 | 成年人在线视频 | 久久91| 免费在线看黄视频 | 99精品国产一区二区三区 | 欧美精品一区三区 | 久久国内精品 | 羞羞涩涩在线观看 |