成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一文學會Hive解析Json數組

大數據
在Hive中會有很多數據是用Json格式來存儲的,如開發人員對APP上的頁面進行埋點時,會將多個字段存放在一個json數組中,因此數據平臺調用數據時,要對埋點數據進行解析。

[[396420]]

本文轉載自微信公眾號「五分鐘學大數據」,作者園陌。轉載本文請聯系五分鐘學大數據公眾號。

在Hive中會有很多數據是用Json格式來存儲的,如開發人員對APP上的頁面進行埋點時,會將多個字段存放在一個json數組中,因此數據平臺調用數據時,要對埋點數據進行解析。接下來就聊聊Hive中是如何解析json數據的。

Hive自帶的json解析函數

1. get_json_object

  • 語法:get_json_object(json_string, '$.key')
  • 說明:解析json的字符串json_string,返回path指定的內容。如果輸入的json字符串無效,那么返回NULL。這個函數每次只能返回一個數據項。
  • 示例:
  1. select  
  2. get_json_object('{"name":"zhangsan","age":18}','$.name');  

結果:

name
zhangsan

如果既要解析name字段,也解析age字段,則可以這樣寫:

  1. select  
  2. get_json_object('{"name":"zhangsan","age":18}','$.name'), 
  3. get_json_object('{"name":"zhangsan","age":18}','$.age'); 

但是如果要解析的字段有很多,再這樣寫就太麻煩了,所以就有了 json_tuple 這個函數。

2. json_tuple

  • 語法:json_tuple(json_string, k1, k2 ...)
  • 說明:解析json的字符串json_string,可指定多個json數據中的key,返回對應的value。如果輸入的json字符串無效,那么返回NULL。
  • 示例:
  1. select  
  2. b.name 
  3. ,b.age 
  4. from tableName a lateral view 
  5. json_tuple('{"name":"zhangsan","age":18}','name','age') b as name,age; 
  • 結果:
name age
zhangsan 18

注意:上面的json_tuple函數中沒有$.

如果在使用json_tuple函數時加上$.就會解析失敗:

  1. select  
  2. b.name 
  3. ,b.age 
  4. from tableName a lateral view 
  5. json_tuple('{"name":"zhangsan","age":18}','$.name','$.age') b as name,age; 

結果:

name age
NULL NULL

字段全是NULL,所以json_tuple函數不需要加$.了,否則會解析不到。

總結:json_tuple相當于get_json_object的優勢就是一次可以解析多個json字段。但是如果我們有個json數組,這兩個函數都無法處理。

Hive解析json數組

一、嵌套子查詢解析json數組

如果有一個hive表,表中 json_str 字段的內容如下:

json_str
[{"website":"baidu.com","name":"百度"},{"website":"google.com","name":"谷歌"}]

我們想把這個字段解析出來,形成如下的結構:

website name
baidu.com 百度
google.com 谷歌

要解析這個json數組,僅用上面介紹的兩個函數就解析不出來了,還需用到如下介紹的幾個函數:

explode函數

  • 語法:explode(Array OR Map)
  • 說明:explode()函數接收一個array或者map類型的數據作為輸入,然后將array或map里面的元素按照每行的形式輸出,即將hive一列中復雜的array或者map結構拆分成多行顯示,也被稱為列轉行函數。
  • 示例:
  1. -- 解析array 
  2. hive> select explode(array('A','B','C')); 
  3. OK 
  4. -- 解析map 
  5. hive> select explode(map('A',10,'B',20,'C',30)); 
  6. OK 
  7. A       10 
  8. B       20 
  9. C       30 

regexp_replace函數

  • 語法: regexp_replace(string A, string B, string C)
  • 說明:將字符串A中的符合java正則表達式B的部分替換為C。注意,在有些情況下要使用轉義字符,類似oracle中的regexp_replace函數。
  • 示例:
  1. hive> select regexp_replace('foobar''oo|ar''');  
  2. OK 
  3. fb 

上述示例將字符串中的 oo 或 ar 替換為''。

有了上述幾個函數,接下來我們來解析json_str字段的內容:

先將json數組中的元素解析出來,轉化為每行顯示:

  1. hive> SELECT explode(split(regexp_replace(regexp_replace('[{"website":"baidu.com","name":"百度"},{"website":"google.com","name":"谷歌"}]''\\]',''),'\\}\\,\\{','\\}\\;\\{'),'\\;')); 
  2. OK 
  3. {"website":"baidu.com","name":"百度"
  4. {"website":"google.com","name":"谷歌"

對上述sql進行簡要說明:

  1. SELECT explode(split( 
  2.     regexp_replace( 
  3.         regexp_replace( 
  4.             '[ 
  5.                 {"website":"baidu.com","name":"百度"}, 
  6.                 {"website":"google.com","name":"谷歌"
  7.             ]',  
  8.             '\\[|\\]' , ''), 將json數組兩邊的中括號去掉 
  9.              
  10.               '\\}\\,\\{' , '\\}\\;\\{'), 將json數組元素之間的逗號換成分號 
  11.                  
  12.                  '\\;') 以分號作為分隔符(split函數以分號作為分隔) 
  13.           );   

為什么要將json數組元素之間的逗號換成分號?

因為元素內的分隔也是逗號,如果不將元素之間的逗號換掉的話,后面用split函數分隔時也會把元素內的數據給分隔,這不是我們想要的結果。

上步已經把一個json數組轉化為多個json字符串了,接下來結合son_tuple函數來解析json里面的字段:

  1. select  
  2. json_tuple(explode(split( 
  3. regexp_replace(regexp_replace('[{"website":"baidu.com","name":"百度"},{"website":"google.com","name":"谷歌"}]''\\[|\\]',''),'\\}\\,\\{','\\}\\;\\{'),'\\;'))  
  4. ) , 'website''name') ; 

執行上述語句,結果報錯了:

  1. FAILED: SemanticException [Error 10081]: UDTF's are not supported outside the SELECT clause, nor nested in expressions 

意思是UDTF函數不能寫在別的函數內,也就是這里的explode函數不能寫在json_tuple里面。

既然explode函數不能寫在別的json_tuple里面,那我們可以用子查詢方式,如下所示:

  1. select json_tuple(json, 'website''name')  
  2. from ( 
  3. select explode(split(regexp_replace(regexp_replace('[{"website":"baidu.com","name":"百度"},{"website":"google.com","name":"谷歌"}]''\\[|\\]',''),'\\}\\,\\{','\\}\\;\\{'),'\\;'))  
  4. as json) t; 

執行上述語句,沒有報錯,執行結果如下:

  1. www.baidu.com   百度 
  2. google.com      谷歌 

二 使用 lateral view 解析json數組

hive表中 goods_id 和 json_str 字段的內容如下:

goods_id json_str
1,2,3 [{"source":"7fresh","monthSales":4900,"userCount":1900,"score":"9.9"},{"source":"jd","monthSales":2090,"userCount":78981,"score":"9.8"},{"source":"jdmart","monthSales":6987,"userCount":1600,"score":"9.0"}]

目的:把 goods_id 字段和 json_str 字段中的monthSales解析出來。

下面我們就開始解析:

拆分goods_id字段及將json數組轉化成多個json字符串:

  1. select  
  2. explode(split(goods_id,',')) as good_id, 
  3. explode(split(regexp_replace(regexp_replace(json_str , '\\[|\\]',''),'\\}\\,\\{','\\}\\;\\{'),'\\;'))  
  4. as sale_info  
  5. from tableName; 

執行上述語句,結果報錯:

  1. FAILED: SemanticException 3:0 Only a single expression in the SELECT clause is supported with UDTF's. Error encountered near token 'sale_info' 

意思是用UDTF的時候,SELECT 只支持一個字段。而上述語句select中有兩個字段,所以報錯了。

那怎么辦呢,要解決這個問題,還得再介紹一個hive語法:

lateral view

lateral view用于和split、explode等UDTF一起使用的,能將一行數據拆分成多行數據,在此基礎上可以對拆分的數據進行聚合,lateral view首先為原始表的每行調用UDTF,UDTF會把一行拆分成一行或者多行,lateral view在把結果組合,產生一個支持別名表的虛擬表。

  • 示例:

假設我們有一張用戶興趣愛好表 hobbies_table,它有兩列數據,第一列是name,第二列是用戶興趣愛好的id_list,是一個數組,存儲興趣愛好的id值:

name id_list
zhangsan [1,2,3]
lisi [3,4,5]

我們要統計所有興趣id在所有用戶中出現的次數:

對興趣id進行解析:

  1. SELECT name, hobby_id  
  2. FROM hobbies_table  
  3. LATERAL VIEW explode(id_list) tmp_table AS hobby_id; 

上述sql執行結果:

name hobby_id
zhangsan 1
zhangsan 2
zhangsan 3
lisi 3
lisi 4
lisi 5

2. 按照hobby_id進行分組聚合即可:

  1. SELECT hobby_id ,count(1) client_num 
  2. FROM hobbies_table  
  3. LATERAL VIEW explode(id_list) tmp_table AS hobby_id 
  4. group by hobby_id; 

結果:

hobby_id client_num
1 1
2 1
3 2
4 1
5 1

介紹完 lateral view 之后,我們再來解決上面遇到的用UDTF的時候,SELECT 只支持一個字段的問題:

  1. select good_id,get_json_object(sale_json,'$.monthSales'as monthSales 
  2. from tableName  
  3. LATERAL VIEW explode(split(goods_id,','))goods as good_id  
  4. LATERAL VIEW explode(split(regexp_replace(regexp_replace(json_str , '\\[|\\]',''),'\\}\\,\\{','\\}\\;\\{'),'\\;')) sales as sale_json; 

注意:上述語句是三個表笛卡爾積的結果,所以此方式適用于數據量不是很大的情況。

上述語句執行結果如下:

goods_id monthSales
1 4900
1 2090
1 6987
2 4900
2 2090
2 6987
3 4900
3 2090
3 6987

如果表中還有其他字段,我們可以根據其他字段篩選出符合結果的數據。

 

總結:lateral view通常和UDTF一起出現,為了解決UDTF不允許在select存在多個字段的問題。

 

責任編輯:武曉燕 來源: 五分鐘學大數據
相關推薦

2020-08-03 08:01:50

爬蟲技巧

2020-04-20 10:47:57

Redis數據開發

2021-06-28 14:13:34

OOM內存事故

2021-04-30 07:33:35

效率提升技巧

2020-08-31 06:54:37

注解脫敏ELK

2021-06-26 09:26:01

Jupyter主題目錄

2021-03-29 08:24:18

KubeadmKubernetes1運維

2021-08-04 07:47:18

IDEJTAGSWD

2025-01-14 00:00:00

場景線程數據

2023-11-01 10:49:50

Python面向對象

2019-03-21 09:45:11

TypeScript編程語言Javascript

2021-04-07 08:13:28

LirbeNMS開源SNMP

2023-09-26 12:22:37

隊列Python

2019-11-12 09:15:18

MySQL復制拓撲Orchestrato

2023-07-31 08:18:50

Docker參數容器

2021-07-30 06:51:28

Nginx運維web

2020-04-19 21:41:13

Python數據可視化

2024-09-26 09:10:08

2019-07-26 06:29:22

MySQL數據庫SQL

2022-03-31 07:32:33

Hivejson解析函數
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品久久久久久久久久妇女 | 亚洲欧美视频一区 | 欧美一区二区三区久久精品视 | 黄色毛片在线观看 | 国产91一区二区三区 | 久久久久久色 | 九九九视频在线观看 | 成人欧美一区二区三区黑人孕妇 | 国产超碰人人爽人人做人人爱 | 日韩精品一区二区三区在线观看 | 天天干天天谢 | 日操操 | 日本天天操| 成人av电影免费在线观看 | 国产精品电影在线观看 | 精品国产伦一区二区三区观看说明 | 亚洲一区中文字幕在线观看 | 亚洲日韩中文字幕一区 | 国产精品美女久久久久久免费 | 午夜一区二区三区在线观看 | 国产精品久久久久久久午夜片 | 视频一区欧美 | 91中文字幕在线观看 | 中文字幕视频在线观看 | 狠狠狠干 | 国产精品久久久久久一区二区三区 | 一区二区三区精品视频 | 欧美高清性xxxxhdvideosex | 国产精品久久久久久吹潮日韩动画 | 91久久精品日日躁夜夜躁国产 | 国产精品久久久久久久久久免费 | 国产在线一区二 | 插插宗合网 | 亚欧午夜 | 精品福利一区二区三区 | 日韩成人一区二区 | 国产日日操 | 日韩精品国产精品 | 免费观看一级特黄欧美大片 | 欧美亚洲高清 | 久久久久久成人 |