成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Hive 數據傾斜問題定位排查及解決

大數據
多數介紹數據傾斜的文章都是以大篇幅的理論為主,并沒有給出具體的數據傾斜案例。當工作中遇到了傾斜問題,這些理論很難直接應用,導致我們面對傾斜時還是不知所措。

[[415207]]

本文轉載自微信公眾號「五分鐘學大數據」,作者園陌。轉載本文請聯系五分鐘學大數據公眾號。

多數介紹數據傾斜的文章都是以大篇幅的理論為主,并沒有給出具體的數據傾斜案例。當工作中遇到了傾斜問題,這些理論很難直接應用,導致我們面對傾斜時還是不知所措。

今天我們不扯大篇理論,直接以例子來實踐,排查是否出現了數據傾斜,具體是哪段代碼導致的傾斜,怎么解決這段代碼的傾斜。

當執行過程中任務卡在 99%,大概率是出現了數據傾斜,但是通常我們的 SQL 很大,需要判斷出是哪段代碼導致的傾斜,才能利于我們解決傾斜。通過下面這個非常簡單的例子來看下如何定位產生數據傾斜的代碼。

表結構描述

先來了解下這些表中我們需要用的字段及數據量:

表的字段非常多,此處僅列出我們需要的字段

第一張表:user_info (用戶信息表,用戶粒度)

字段名 字段含義 字段描述
userkey 用戶 key 用戶標識
idno 用戶的身份證號 用戶實名認證時獲取
phone 用戶的手機號 用戶注冊時的手機號
name 用戶的姓名 用戶的姓名

user_info 表的數據量:1.02 億,大小:13.9G,所占空間:41.7G(HDFS三副本)

第二張表:user_active (用戶活躍表,用戶粒度)

字段名 字段含義 字段描述
userkey 用戶 key 用戶沒有注冊會分配一個 key
user_active_at 用戶的最后活躍日期 從埋點日志表中獲取用戶的最后活躍日期

user_active 表的數據量:1.1 億

第三張表:user_intend(用戶意向表,此處只取近六個月的數據,用戶粒度)

字段名 字段含義 字段描述
phone 用戶的手機號 有意向的用戶必須是手機號注冊的用戶
intend_commodity 用戶意向次數最多的商品 客戶對某件商品意向次數最多
intend_rank 用戶意向等級 用戶的購買意愿等級,級數越高,意向越大

user_intend 表的數據量:800 萬

第四張表:user_order(用戶訂單表,此處只取近六個月的訂單數據,用戶粒度)

字段名 字段含義 字段描述
idno 用戶的身份證號 下訂單的用戶都是實名認證的
order_num 用戶的訂單次數 用戶近六個月下單次數
order_amount 用戶的訂單總金額 用戶近六個月下單總金額

user_order 表的數據量:640 萬

一. 需求

需求非常簡單,就是將以上四張表關聯組成一張大寬表,大寬表中包含用戶的基本信息,活躍情況,購買意向及此用戶下訂單情況。

二. 代碼

根據以上需求,我們以 user_info 表為基礎表,將其余表關聯為一個寬表,代碼如下:

  1. select 
  2.   a.userkey, 
  3.   a.idno, 
  4.   a.phone, 
  5.   a.name
  6.   b.user_active_at, 
  7.   c.intend_commodity, 
  8.   c.intend_rank, 
  9.   d.order_num, 
  10.   d.order_amount 
  11. from user_info a 
  12. left join user_active b on a.userkey = b.userkey 
  13. left join user_intend c on a.phone = c.phone 
  14. left join user_order d on a.idno = d.idno; 

執行上述語句,在執行到某個 job 時任務卡在 99%:

這時我們就應該考慮出現數據傾斜了。其實還有一種情況可能是數據傾斜,就是任務超時被殺掉,Reduce 處理的數據量巨大,在做 full gc 的時候,stop the world。導致響應超時,超出默認的 600 秒,任務被殺掉。報錯信息一般如下:

AttemptID:attempt_1624419433039_1569885_r_000000 Timed outafter 600 secs Container killed by the ApplicationMaster. Container killed onrequest. Exit code is 143 Container exited with a non-zero exit code 143

三. 傾斜問題排查

數據傾斜大多數都是大 key 問題導致的。

如何判斷是大 key 導致的問題,可以通過下面方法:

1. 通過時間判斷

如果某個 reduce 的時間比其他 reduce 時間長的多,如下圖,大部分 task 在 1 分鐘之內完成,只有 r_000000 這個 task 執行 20 多分鐘了還沒完成。

注意:要排除兩種情況:

  • 如果每個 reduce 執行時間差不多,都特別長,不一定是數據傾斜導致的,可能是 reduce 設置過少導致的。
  • 有時候,某個 task 執行的節點可能有問題,導致任務跑的特別慢。這個時候,mapreduce 的推測執行,會重啟一個任務。如果新的任務在很短時間內能完成,通常則是由于 task 執行節點問題導致的個別 task 慢。但是如果推測執行后的 task 執行任務也特別慢,那更說明該 task 可能會有傾斜問題。

2. 通過任務 Counter 判斷

Counter 會記錄整個 job 以及每個 task 的統計信息。counter 的 url 一般類似:

http://bd001:8088/proxy/application_1624419433039_1569885/mapreduce/singletaskcounter/task_1624419433039_1569885_r_000000/org.apache.hadoop.mapreduce.FileSystemCounter

通過輸入記錄數,普通的 task counter 如下,輸入的記錄數是 13 億多:

而 task=000000 的 counter 如下,其輸入記錄數是 230 多億。是其他任務的 100 多倍:

四. 定位 SQL 代碼

1. 確定任務卡住的 stage

  • 通過 jobname 確定 stage:

一般 Hive 默認的 jobname 名稱會帶上 stage 階段,如下通過 jobname 看到任務卡住的為 Stage-4:

  • 如果 jobname 是自定義的,那可能沒法通過 jobname 判斷 stage。需要借助于任務日志:

找到執行特別慢的那個 task,然后 Ctrl+F 搜索 “CommonJoinOperator: JOIN struct” 。Hive 在 join 的時候,會把 join 的 key 打印到日志中。如下:

上圖中的關鍵信息是:struct<_col0:string, _col1:string, _col3:string>

這時候,需要參考該 SQL 的執行計劃。通過參考執行計劃,可以斷定該階段為 Stage-4 階段:

2. 確定 SQL 執行代碼

確定了執行階段,即 stage。通過執行計劃,則可以判斷出是執行哪段代碼時出現了傾斜。還是從此圖,這個 stage 中進行連接操作的表別名是 d:

就可以推測出是在執行下面紅框中代碼時出現了數據傾斜,因為這行的表的別名是 d:

五. 解決傾斜

我們知道了哪段代碼引起的數據傾斜,就針對這段代碼查看傾斜原因,看下這段代碼的表中數據是否有異常。

傾斜原因:

本文的示例數據中 user_info 和 user_order 通過身份證號關聯,檢查發現 user_info 表中身份證號為空的有 7000 多萬,原因就是這 7000 多萬數據都分配到一個 reduce 去執行,導致數據傾斜。

解決方法:

可以先把身份證號為空的去除之后再關聯,最后按照 userkey 連接,因為 userkey 全部都是有值的:

  1. with t1 as
  2. select 
  3.   u.userkey, 
  4.   o.* 
  5. from user_info u 
  6. left join user_order o 
  7. on u.idno = o.idno 
  8. where u.idno is not null 
  9. --是可以把where條件寫在后面的,hive會進行謂詞下推,先執行where條件在執行 left join 
  10.  
  11. select 
  12.   a.userkey, 
  13.   a.idno, 
  14.   a.phone, 
  15.   a.name
  16.   b.user_active_at, 
  17.   c.intend_commodity, 
  18.   c.intend_rank, 
  19.   d.order_num, 
  20.   d.order_amount 
  21. from user_info a 
  22. left join user_active b on a.userkey = b.userkey 
  23. left join user_intend c on a.phone = c.phone 
  24. left join t1 d on a.userkey = d.userkey; 

也可以這樣,給身份證為空的數據賦個隨機值,但是要注意隨機值不能和表中的身份證號有重復:

  1. select 
  2.   a.userkey, 
  3.   a.idno, 
  4.   a.phone, 
  5.   a.name
  6.   b.user_active_at, 
  7.   c.intend_commodity, 
  8.   c.intend_rank, 
  9.   d.order_num, 
  10.   d.order_amount 
  11. from user_info a 
  12. left join user_active b on a.userkey = b.userkey 
  13. left join user_intend c on a.phone = c.phone 
  14. left join user_order d on nvl(a.idno,concat(rand(),'idnumber')) = d.idno; 

其他的解決數據傾斜的方法:

1. 過濾掉臟數據

如果大 key 是無意義的臟數據,直接過濾掉。本場景中大 key 有實際意義,不能直接過濾掉。

2. 數據預處理

數據做一下預處理(如上面例子,對 null 值賦一個隨機值),盡量保證 join 的時候,同一個 key 對應的記錄不要有太多。

3. 增加 reduce 個數

如果數據中出現了多個大 key,增加 reduce 個數,可以讓這些大 key 落到同一個 reduce 的概率小很多。

配置 reduce 個數:

  1. set mapred.reduce.tasks = 15; 

4. 轉換為 mapjoin

如果兩個表 join 的時候,一個表為小表,可以用 mapjoin 做。

配置 mapjoin:

  1. set hive.auto.convert.join = true;  是否開啟自動mapjoin,默認是true 
  2.  
  3. set hive.mapjoin.smalltable.filesize=100000000;   mapjoin的表size大小 

5. 啟用傾斜連接優化

hive 中可以設置 hive.optimize.skewjoin 將一個 join sql 分為兩個 job。同時可以設置下 hive.skewjoin.key,此參數表示 join 連接的 key 的行數超過指定的行數,就認為該鍵是偏斜連接鍵,就對 join 啟用傾斜連接優化。默認 key 的行數是 100000。

配置傾斜連接優化:

  1. set hive.optimize.skewjoin=true; 啟用傾斜連接優化 
  2.  
  3. set hive.skewjoin.key=200000; 超過20萬行就認為該鍵是偏斜連接鍵 

6. 調整內存設置

適用于那些由于內存超限任務被 kill 掉的場景。通過加大內存起碼能讓任務跑起來,不至于被殺掉。該參數不一定會明顯降低任務執行時間。

配置內存:

  1. set mapreduce.reduce.memory.mb=5120; 設置reduce內存大小 
  2.  
  3. set mapreduce.reduce.java.opts=-Xmx5000m -XX:MaxPermSize=128m; 

 

附:Hive 配置屬性官方鏈接:https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties

 

責任編輯:武曉燕 來源: 五分鐘學大數據
相關推薦

2021-04-22 07:21:55

Hive數據傾斜

2023-07-26 07:22:32

2020-11-03 10:16:24

Hive數據傾斜Hive SQL

2022-12-12 08:13:27

Redis數據傾斜

2022-02-23 12:07:20

分布式Spark數據傾斜

2019-10-11 19:45:28

SparkSQLHiveHadoop

2016-10-20 15:27:18

MySQLredo死鎖

2018-03-01 08:56:20

存儲能力定位

2024-10-10 15:32:51

2013-04-28 09:19:20

綜合布線故障排查校園網

2020-04-01 11:05:24

Spark數據傾斜Hadoop

2018-08-10 15:00:42

服務器內存排查

2024-11-21 16:47:55

2024-12-02 01:16:53

2023-10-08 13:10:00

Redis數據庫

2021-02-20 08:40:19

HiveExplain底層

2016-11-14 10:06:04

大數據max位圖

2012-08-08 14:33:32

IBMdW

2018-11-29 09:00:58

故障定位運維

2023-10-13 12:05:55

RedisBig Key
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国内自拍偷拍一区 | 国产精品色哟哟网站 | 九九热视频这里只有精品 | 可以免费观看的av片 | 国产特级毛片aaaaaa喷潮 | 91在线电影 | 国产一区不卡 | 日韩在线免费观看视频 | 在线精品亚洲欧美日韩国产 | 狠狠夜夜 | 亚洲精品久久久久久久久久吃药 | 精品国产乱码久久久久久1区2区 | 操操日| 欧美一区二区三区 | 亚洲精品一区二三区不卡 | 欧美11一13sex性hd | 每日在线更新av | 国产www.| 日韩av在线中文字幕 | 精品欧美 | 九九av | 美女三区 | 伊人网站| 欧美久久一区二区 | 日韩一区二区三区视频 | 国产在线视频99 | 中文字幕亚洲免费 | 亚洲精品日本 | 色精品 | 日本一区二区三区精品视频 | 久久网亚洲| 免费不卡av | 亚洲欧美在线免费观看 | 日韩区 | 日本精品久久久久 | 亚洲成人播放器 | 亚洲精品字幕 | 波多野结衣av中文字幕 | 久色| 九九免费观看视频 | 在线只有精品 |