成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Hive千億級數據傾斜解決方案

大數據
MapReduce和Spark中的數據傾斜解決方案原理都是類似的,以下討論Hive使用MapReduce引擎引發的數據傾斜,Spark數據傾斜也可以此為參照。

[[394902]]

本文轉載自微信公眾號「五分鐘學大數據」,作者園陌 。轉載本文請聯系五分鐘學大數據公眾號。

數據傾斜問題剖析

數據傾斜是分布式系統不可避免的問題,任何分布式系統都有幾率發生數據傾斜,但有些小伙伴在平時工作中感知不是很明顯。這里要注意本篇文章的標題—“千億級數據”,為什么說千億級,因為如果一個任務的數據量只有幾百萬,它即使發生了數據傾斜,所有數據都跑到一臺機器去執行,對于幾百萬的數據量,一臺機器執行起來還是毫無壓力的,這時數據傾斜對我們感知不大,只有數據達到一個量級時,一臺機器應付不了這么多數據,這時如果發生數據傾斜,最后就很難算出結果。

所以就需要我們對數據傾斜的問題進行優化,盡量避免或減輕數據傾斜帶來的影響。

在解決數據傾斜問題之前,還要再提一句:沒有瓶頸時談論優化,都是自尋煩惱。

大家想想,在map和reduce兩個階段中,最容易出現數據傾斜的就是reduce階段,因為map到reduce會經過shuffle階段,在shuffle中默認會按照key進行hash,如果相同的key過多,那么hash的結果就是大量相同的key進入到同一個reduce中,導致數據傾斜。

那么有沒有可能在map階段就發生數據傾斜呢,是有這種可能的。

一個任務中,數據文件在進入map階段之前會進行切分,默認是128M一個數據塊,但是如果當對文件使用GZIP壓縮等不支持文件分割操作的壓縮方式時,MR任務讀取壓縮后的文件時,是對它切分不了的,該壓縮文件只會被一個任務所讀取,如果有一個超大的不可切分的壓縮文件被一個map讀取時,就會發生map階段的數據傾斜。

所以,從本質上來說,發生數據傾斜的原因有兩種:一是任務中需要處理大量相同的key的數據。二是任務讀取不可分割的大文件。

數據傾斜解決方案

MapReduce和Spark中的數據傾斜解決方案原理都是類似的,以下討論Hive使用MapReduce引擎引發的數據傾斜,Spark數據傾斜也可以此為參照。

1. 空值引發的數據傾斜

實際業務中有些大量的null值或者一些無意義的數據參與到計算作業中,表中有大量的null值,如果表之間進行join操作,就會有shuffle產生,這樣所有的null值都會被分配到一個reduce中,必然產生數據傾斜。

之前有小伙伴問,如果A、B兩表join操作,假如A表中需要join的字段為null,但是B表中需要join的字段不為null,這兩個字段根本就join不上啊,為什么還會放到一個reduce中呢?

這里我們需要明確一個概念,數據放到同一個reduce中的原因不是因為字段能不能join上,而是因為shuffle階段的hash操作,只要key的hash結果是一樣的,它們就會被拉到同一個reduce中。

解決方案:

第一種:可以直接不讓null值參與join操作,即不讓null值有shuffle階段

  1. SELECT * 
  2. FROM log a 
  3.  JOIN users b 
  4.  ON a.user_id IS NOT NULL 
  5.   AND a.user_id = b.user_id 
  6. UNION ALL 
  7. SELECT * 
  8. FROM log a 
  9. WHERE a.user_id IS NULL

第二種:因為null值參與shuffle時的hash結果是一樣的,那么我們可以給null值隨機賦值,這樣它們的hash結果就不一樣,就會進到不同的reduce中:

  1. SELECT * 
  2. FROM log a 
  3.  LEFT JOIN users b ON CASE  
  4.    WHEN a.user_id IS NULL THEN concat('hive_', rand()) 
  5.    ELSE a.user_id 
  6.   END = b.user_id; 

2. 不同數據類型引發的數據傾斜

對于兩個表join,表a中需要join的字段key為int,表b中key字段既有string類型也有int類型。當按照key進行兩個表的join操作時,默認的Hash操作會按int型的id來進行分配,這樣所有的string類型都被分配成同一個id,結果就是所有的string類型的字段進入到一個reduce中,引發數據傾斜。

解決方案:

如果key字段既有string類型也有int類型,默認的hash就都會按int類型來分配,那我們直接把int類型都轉為string就好了,這樣key字段都為string,hash時就按照string類型分配了:

  1. SELECT * 
  2. FROM users a 
  3.  LEFT JOIN logs b ON a.usr_id = CAST(b.user_id AS string); 

3. 不可拆分大文件引發的數據傾斜

當集群的數據量增長到一定規模,有些數據需要歸檔或者轉儲,這時候往往會對數據進行壓縮;當對文件使用GZIP壓縮等不支持文件分割操作的壓縮方式,在日后有作業涉及讀取壓縮后的文件時,該壓縮文件只會被一個任務所讀取。如果該壓縮文件很大,則處理該文件的Map需要花費的時間會遠多于讀取普通文件的Map時間,該Map任務會成為作業運行的瓶頸。這種情況也就是Map讀取文件的數據傾斜。

解決方案:

這種數據傾斜問題沒有什么好的解決方案,只能將使用GZIP壓縮等不支持文件分割的文件轉為bzip和zip等支持文件分割的壓縮方式。

所以,我們在對文件進行壓縮時,為避免因不可拆分大文件而引發數據讀取的傾斜,在數據壓縮的時候可以采用bzip2和Zip等支持文件分割的壓縮算法。

4. 數據膨脹引發的數據傾斜

在多維聚合計算時,如果進行分組聚合的字段過多,如下:

select a,b,c,count(1)from log group by a,b,c with rollup;

注:對于最后的with rollup關鍵字不知道大家用過沒,with rollup是用來在分組統計數據的基礎上再進行統計匯總,即用來得到group by的匯總信息。

如果上面的log表的數據量很大,并且Map端的聚合不能很好地起到數據壓縮的情況下,會導致Map端產出的數據急速膨脹,這種情況容易導致作業內存溢出的異常。如果log表含有數據傾斜key,會加劇Shuffle過程的數據傾斜。

解決方案:

可以拆分上面的sql,將with rollup拆分成如下幾個sql:

  1. SELECT a, b, c, COUNT(1) 
  2. FROM log 
  3. GROUP BY a, b, c; 
  4.  
  5. SELECT a, b, NULLCOUNT(1) 
  6. FROM log 
  7. GROUP BY a, b; 
  8.  
  9. SELECT a, NULLNULLCOUNT(1) 
  10. FROM log 
  11. GROUP BY a; 
  12.  
  13. SELECT NULLNULLNULLCOUNT(1) 
  14. FROM log; 

但是,上面這種方式不太好,因為現在是對3個字段進行分組聚合,那如果是5個或者10個字段呢,那么需要拆解的SQL語句會更多。

在Hive中可以通過參數 hive.new.job.grouping.set.cardinality 配置的方式自動控制作業的拆解,該參數默認值是30。表示針對grouping sets/rollups/cubes這類多維聚合的操作,如果最后拆解的鍵組合大于該值,會啟用新的任務去處理大于該值之外的組合。如果在處理數據時,某個分組聚合的列有較大的傾斜,可以適當調小該值。

5. 表連接時引發的數據傾斜

兩表進行普通的repartition join時,如果表連接的鍵存在傾斜,那么在 Shuffle 階段必然會引起數據傾斜。

解決方案:

通常做法是將傾斜的數據存到分布式緩存中,分發到各個Map任務所在節點。在Map階段完成join操作,即MapJoin,這避免了 Shuffle,從而避免了數據傾斜。

MapJoin是Hive的一種優化操作,其適用于小表JOIN大表的場景,由于表的JOIN操作是在Map端且在內存進行的,所以其并不需要啟動Reduce任務也就不需要經過shuffle階段,從而能在一定程度上節省資源提高JOIN效率。

在Hive 0.11版本之前,如果想在Map階段完成join操作,必須使用MAPJOIN來標記顯示地啟動該優化操作,由于其需要將小表加載進內存所以要注意小表的大小。

如將a表放到Map端內存中執行,在Hive 0.11版本之前需要這樣寫:

  1. select /* +mapjoin(a) */ a.id , a.name, b.age  
  2. from a join b  
  3. on a.id = b.id; 

如果想將多個表放到Map端內存中,只需在mapjoin()中寫多個表名稱即可,用逗號分隔,如將a表和c表放到Map端內存中,則 /* +mapjoin(a,c) */ 。

在Hive 0.11版本及之后,Hive默認啟動該優化,也就是不在需要顯示的使用MAPJOIN標記,其會在必要的時候觸發該優化操作將普通JOIN轉換成MapJoin,可以通過以下兩個屬性來設置該優化的觸發時機:

hive.auto.convert.join=true 默認值為true,自動開啟MAPJOIN優化。

hive.mapjoin.smalltable.filesize=2500000 默認值為2500000(25M),通過配置該屬性來確定使用該優化的表的大小,如果表的大小小于此值就會被加載進內存中。

注意:使用默認啟動該優化的方式如果出現莫名其妙的BUG(比如MAPJOIN并不起作用),就將以下兩個屬性置為fase手動使用MAPJOIN標記來啟動該優化:

hive.auto.convert.join=false (關閉自動MAPJOIN轉換操作)

hive.ignore.mapjoin.hint=false (不忽略MAPJOIN標記)

再提一句:將表放到Map端內存時,如果節點的內存很大,但還是出現內存溢出的情況,我們可以通過這個參數 mapreduce.map.memory.mb 調節Map端內存的大小。

6. 確實無法減少數據量引發的數據傾斜

在一些操作中,我們沒有辦法減少數據量,如在使用 collect_list 函數時:

  1. select s_age,collect_list(s_score) list_score 
  2. from student 
  3. group by s_age 

collect_list:將分組中的某列轉為一個數組返回。

在上述sql中,s_age如果存在數據傾斜,當數據量大到一定的數量,會導致處理傾斜的reduce任務產生內存溢出的異常。

注:collect_list輸出一個數組,中間結果會放到內存中,所以如果collect_list聚合太多數據,會導致內存溢出。

有小伙伴說這是 group by 分組引起的數據傾斜,可以開啟hive.groupby.skewindata參數來優化。我們接下來分析下:

開啟該配置會將作業拆解成兩個作業,第一個作業會盡可能將Map的數據平均分配到Reduce階段,并在這個階段實現數據的預聚合,以減少第二個作業處理的數據量;第二個作業在第一個作業處理的數據基礎上進行結果的聚合。

hive.groupby.skewindata的核心作用在于生成的第一個作業能夠有效減少數量。但是對于collect_list這類要求全量操作所有數據的中間結果的函數來說,明顯起不到作用,反而因為引入新的作業增加了磁盤和網絡I/O的負擔,而導致性能變得更為低下。

解決方案:

這類問題最直接的方式就是調整reduce所執行的內存大小。

調整reduce的內存大小使用mapreduce.reduce.memory.mb這個配置。

 

責任編輯:武曉燕 來源: 五分鐘學大數據
相關推薦

2022-02-23 12:07:20

分布式Spark數據傾斜

2009-03-19 09:49:00

華為數據備份賽門鐵克

2022-01-04 20:34:00

數據安全Relay

2017-05-10 14:41:41

存儲

2022-01-06 20:00:39

數據企業安全

2022-01-05 20:16:52

Sentry Relay 數據安全

2022-01-08 15:08:17

項目配置Sentry

2022-01-09 21:46:22

安全數據Sentry

2021-08-04 07:21:31

Hive 數據排查

2022-01-12 23:54:27

Sentry企業級安全

2022-01-07 18:07:16

數據安全監控

2020-11-03 10:16:24

Hive數據傾斜Hive SQL

2013-10-18 15:27:30

微軟大數據微軟

2013-07-30 11:18:59

SAP大數據解決方案

2009-04-27 17:12:11

數據保護EDPSafeNet

2021-06-29 12:00:36

Eclipse開源數據傳輸

2023-03-27 09:14:34

2022-09-19 16:22:43

數據庫方案

2024-08-12 12:07:18

2011-08-05 17:09:48

Informatica數據復制
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品99久久久久久久久 | 亚洲在线视频 | 91精品福利 | 欧美一区二区在线播放 | 免费一区二区在线观看 | 精品欧美一区二区精品久久久 | av一区二区三区四区 | 久久久.com | 国产精品久久久久久久久免费丝袜 | 日韩在线精品视频 | 午夜看电影在线观看 | 国产欧美日韩一区二区三区 | 亚洲毛片一区二区 | 国产精品美女在线观看 | 国产精品一区二区在线观看 | 免费观看成人性生生活片 | 97国产精品视频人人做人人爱 | 一级毛片视频 | 国产激情精品一区二区三区 | 欧洲亚洲精品久久久久 | 成人免费在线视频 | 成人小视频在线观看 | 久久蜜桃资源一区二区老牛 | 国产欧美日韩在线播放 | 在线免费av观看 | 亚洲高清在线观看 | 国产黄色小视频在线观看 | 国产精品一区二区三区在线 | 男女羞羞视频免费看 | 亚洲欧美一区二区三区国产精品 | 天天操综合网站 | 91极品欧美视频 | av片网| 男人天堂网址 | 国产精品1区 | 日韩三级电影在线看 | 欧美一区二区三区在线观看视频 | 狠狠综合久久av一区二区小说 | 精品久久久一区 | 欧美 日韩 中文 | 成人性视频免费网站 |