成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

500行SQL快速實現UCF

開發 前端
UCF通常是User-base Collaborative Filter的簡寫;大體的算法思路是根據用戶行為計算相似群體(鄰居),為用戶推薦其鄰居喜好的內容;感覺是不是很簡單、那廢話不多說先擼個SQL。

[[381092]]

寫在前面話

UCF通常是User-base Collaborative Filter的簡寫;大體的算法思路是根據用戶行為計算相似群體(鄰居),為用戶推薦其鄰居喜好的內容;感覺是不是很簡單、那廢話不多說先擼個SQL。

SQL

  1. select uid1,uid2,sim 
  2. from ( 
  3.     select uid1 
  4.         ,uid2 
  5.         ,cnt12 / sqrt(cnt1*cnt2) sim 
  6.         ,row_number() over(partition by uid1 order by cnt12 / sqrt(cnt1*cnt2) desc) sim_rn 
  7.     from ( 
  8.         select a.uid uid1 
  9.             ,b.uid uid2 
  10.             ,count(a.iid) cnt12  
  11.         from tb_behavior a 
  12.         join tb_behavior b 
  13.         on a.iid = b.iid 
  14.         where a.uid <> b.uid 
  15.         group by a.uid,b.uid 
  16.     ) a12 
  17.     join (select uid,count(iid) cnt1 from tb_behavior group by uid) a1 
  18.     on a12.uid1 = a1.uid 
  19.     join (select uid,count(iid) cnt2 from tb_behavior group by uid) a2 
  20.     on a12.uid1 = a2.uid 
  21. ) tb_neighbour 
  22. where sim > 0.1 and sim_rn <= 30 

讀者實現的話只需要把上面的tb_behavior表替換成自己業務的用戶行為即可;iid,uid分別對應物品id和用戶id;

根據共現相似度,即共同喜好的物品個數比上各自喜好物品總數乘積取平方;最后截斷用戶最相似的前30個鄰居作為推薦的依據。

上面構造了鄰居表,下面就是根據鄰居的喜好為用戶推薦了,具體sql如下:

  1. select uid1,iid 
  2. from ( 
  3.     select uid1 
  4.         ,iid 
  5.         ,max(sim) score 
  6.         ,row_number() over(partition by uid1 order by max(sim) desc) user_rn 
  7.     from tb_neighbour a12 
  8.     join (select uid,iid from tb_behavior) a2 
  9.     on a12.uid2 = a2.uid 
  10.     join (select uid,collect_set(iid) iids1 from tb_behavior group by uid) a1 
  11.     on a12.uid1 = a1.uid 
  12.     where not array_contaions(iids1,a2.iid) 
  13.     group by uid1,iid 
  14. ) tb_rec 
  15. where user_rn <= 500 

這里說明下包括上面的top30鄰居和用戶top500的最大推薦列表都是工程優化,截斷節約些存儲;具體讀者可以根據自己業務需要進行設置;

然后大概說下各個表的含義:a1表是用戶已消費過的物品,a2表是用戶每個鄰居喜好的物品;那么也就是說從鄰居喜好的物品中過濾掉已經消費的

物品整體根據共現相似度進行排序。

思考

但思路很簡單、實際作者開發中總會遇到各種各樣的問題,下面就撿幾個主要的和大家一起討論下:

  • 1.join引起的數據傾斜問題:tb_neighbour表很大,往往熱點物品會占據80%的曝光和消費記錄,如何解決?
  • 2.增量更新問題:上面的框架,tb_behavior表每次都是全量計算,是否能改造成增量更新鄰居表和推薦結果,并減少計算時間呢?

join引起的數據傾斜問題

先思考問題1,既然我們目的是求相似鄰居,物品join只是為了關聯上一組用戶對,那自然的想法是可以根據feed做近似采樣、相似度精度也幾乎無損失。

下面我試著實現下這種思路:

  1. with tb_behavior_sample as ( 
  2.     select uid,iid  
  3.     from ( 
  4.         select uid 
  5.             ,iid 
  6.             ,row_number() over(partition by iid order by rand()) feed_rn 
  7.         from tb_behavior 
  8.     ) bh 
  9.     where feed_rn <= 50000 
  10. )  
  11.  
  12. select uid1,uid2,sim 
  13. from ( 
  14.     select uid1 
  15.         ,uid2 
  16.         ,cnt12 / sqrt(cnt1*cnt2) sim 
  17.         ,row_number() over(partition by uid1 order by cnt12 / sqrt(cnt1*cnt2) desc) sim_rn 
  18.     from ( 
  19.         select a.uid uid1 
  20.             ,b.uid uid2 
  21.             ,count(a.iid) cnt12  
  22.         from tb_behavior_sample a 
  23.         join tb_behavior_sample b 
  24.         on a.iid = b.iid 
  25.         where a.uid <> b.uid 
  26.         group by a.uid,b.uid 
  27.     ) a12 
  28.     join (select uid,count(iid) cnt1 from tb_behavior group by uid) a1 
  29.     on a12.uid1 = a1.uid 
  30.     join (select uid,count(iid) cnt2 from tb_behavior group by uid) a2 
  31.     on a12.uid1 = a2.uid 
  32. ) tb_neighbour 
  33. where sim > 0.1 and sim_rn <= 30 

這里用了hive的with as語法,讀者可自行查閱,篇幅有限,就不展開了;feed_rn就是隨機采樣了50000條,實際操作時讀者可以先統計下item的分布、大概找到一個閾值;

比如取top10的item的出現次數作為閾值;那計算相似度時分子最多減小10,分母不變。這對大多數情況精度應該足夠了,而且因為避免了數據傾斜,大大降低了計算時間。

增量更新問題

問題2是一個工程問題,lambda架構能使初始結果效果不錯,可直接上線灰度了;在此基礎上再加小時或者天增量;kappa架構相對就比較繁瑣、需要一開始就設計增量流程。

精度方面也需要一定的累積;不過如何選擇,讀者可以根據自己的數據量和熟悉程度自行選擇;作者這里僅以kappa架構說明。

重新review上面sql,我們發現我們僅需要記錄下cnt12,cnt1,cnt2,iids1這些計算關鍵即可,其中iids2是用戶鄰居喜好的物品數組;數值類型可累加更新、

數組類型合并起來比較麻煩,一種解決方案是注冊UDF;這里采取另一種這種的方案:把iids1合并成字符串,過濾的時候再分割為字符串數組。

  1. with tb_behavior_sample_incr as ( 
  2.     select uid,iid  
  3.     from ( 
  4.         select uid 
  5.             ,iid 
  6.             ,row_number() over(partition by iid order by rand()) feed_rn 
  7.         from tb_behavior_incr 
  8.     ) bh 
  9.     where feed_rn <= 50000 
  10. )  
  11.  
  12. insert overwrite table tb_neighbour 
  13. select uid1,uid2,sim 
  14. from ( 
  15.     select uid1 
  16.         ,uid2 
  17.         ,sum(cnt12) / sqrt(sum(cnt1)*sum(cnt2)) sim 
  18.         ,row_number() over(partition by uid1 order by sum(cnt12) / sqrt(sum(cnt1)*sum(cnt2)) desc) sim_rn 
  19.     from ( 
  20.         select uid1,uid2,cnt12,cnt1,cnt2 
  21.         from tb_neighbour 
  22.         union all 
  23.         select a.uid uid1 
  24.             ,b.uid uid2 
  25.             ,count(a.iid) cnt12  
  26.             ,cnt1 
  27.             ,cnt2 
  28.         from tb_behavior_sample_incr a 
  29.         join tb_behavior_sample_incr b 
  30.         on a.iid = b.iid 
  31.         where a.uid <> b.uid 
  32.         group by a.uid,b.uid  
  33.     ) a12 
  34.     join (select uid,count(iid) cnt1 from tb_behavior_incr group by uid) a1 
  35.     on a12.uid1 = a1.uid 
  36.     join (select uid,count(iid) cnt2 from tb_behavior_incr group by uid) a2 
  37.     on a12.uid1 = a2.uid 
  38.     group by uid1,uid2 
  39. ) tb_neighbour 
  40. where sim > 0.1 and sim_rn <= 30 

其中tb_behavior_sample_incr,tb_behavior_incr是相應tb_behavior_sample,tb_behavior的增量表;使用union all和group by聚合相同用戶對的結果

kappa架構初次計算即是增量,不斷累積每次增量的結果更新tb_neighbour;相當于lambda初始全量計算的一種回放,直至追到最新的時間分區。

  1. insert overwrite table tb_user_consume 
  2. select uid,substring_index(concat_ws(",",collect_list(iids1)),",",10000) iids1  
  3. from ( 
  4.     select uid,concat_ws(",",collect_set(cast(iid as string))) iids1 
  5.     from tb_behavior_incr 
  6.     union all 
  7.     select uid,iids1 
  8.     from tb_user_consume 
  9. ) a 
  10. group by uid 
  11.  
  12. select uid1,iid 
  13. from ( 
  14.     select uid1 
  15.         ,iid 
  16.         ,max(sim) score 
  17.         ,row_number() over(partition by uid1 order by max(sim) desc) user_rn 
  18.     from tb_neighbour a12 
  19.     join (select uid,cast(iid as string) iid from tb_behavior_incr) a2 
  20.     on a12.uid2 = a2.uid 
  21.     join (select uid,split(iids1,",") iids1 from tb_user_consume) a1 
  22.     on a12.uid1 = a1.uid 
  23.     where not array_contaions(iids1,a2.iid) 
  24.     group by uid1,iid 
  25. ) tb_rec 
  26. where user_rn <= 500 

使用tb_user_consume緩存用戶最近消費的前10000條記錄,將用戶鄰居最新喜好物品推薦給用戶。

寫在后面的話

呼!終于寫完了;雖然說有了上面這一套操作,UCF推薦基本完成;但有沒有更好的方式呢?我想應該就是embedding大法了吧;比如item2vec對用戶聚類,根據聚類

推薦;再或者根據好友關系,推薦好友喜好的物品。前者表征更細致,值得一說的是其也有負采樣策略和checkpoint增量更新;后者好友信任度更高,解釋性更強。

責任編輯:張燕妮 來源: 博客園
相關推薦

2021-06-28 16:05:19

數據庫代碼技術

2021-06-30 13:45:49

SQL數據庫LSM

2009-09-14 13:17:51

LINQ to SQLLINQ to SQL

2022-10-28 10:18:53

代碼績效Java

2021-12-16 22:59:21

SQL報表應用

2014-05-15 09:45:58

Python解析器

2019-10-17 21:37:28

微信飛機大戰Python

2010-11-16 16:02:08

曙光天河星云

2011-05-16 09:15:22

SQL語言

2011-05-16 09:22:28

SQL語言

2022-08-19 07:13:45

SQL方法編程

2009-11-17 09:47:54

Oracle SQL語

2019-06-03 08:52:39

打卡考勤數據庫

2010-09-01 15:30:24

SQL刪除

2011-11-30 09:46:32

超算TOP500超級計算機

2010-05-19 16:45:59

信息安全網絡安全管理任子行網絡

2010-09-01 17:19:49

SQL刪除TABLE

2020-05-21 14:50:48

代碼機器學習圖像

2023-10-08 20:32:59

CSS定義Loading
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲 中文 欧美 日韩 在线观看 | 欧美黄在线观看 | 国产精品久久久久久久久久久久 | 国产日韩欧美 | 午夜午夜精品一区二区三区文 | 成人二区| 男人的天堂久久 | 国产激情在线 | 久久综合国产精品 | 久久精品国产99国产 | 国产精品伦理一区二区三区 | 欧美涩 | 国产精品视频久久久 | 欧美精品中文字幕久久二区 | 久久成人激情 | 久久av一区二区 | 亚洲欧美激情精品一区二区 | 九九综合| 亚洲精品一区二区三区蜜桃久 | 日韩1区 | 99视频精品 | 一区二区在线视频 | 国偷自产av一区二区三区 | 一二三四在线视频观看社区 | 日韩福利 | 亚洲一区二区在线 | 伊人狠狠 | 欧美一区2区三区3区公司 | jizz在线免费观看 | 国产成人网 | 亚洲第一av | 操操网站 | 中文字幕av一区二区三区 | 日本精品一区二区 | 国产精品亚洲精品 | 亚洲深夜福利 | 久久精品视频在线播放 | 99久久精品免费看国产免费软件 | 美女黄色在线观看 | 国色天香综合网 | 国产成人免费网站 |