成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

基于雙塔神經(jīng)網(wǎng)絡(luò)與負采樣技術(shù)構(gòu)建高性能推薦系統(tǒng)

譯文 精選
開發(fā)
本文旨在探討推動高級推薦引擎開發(fā)的關(guān)鍵要素——雙塔神經(jīng)網(wǎng)絡(luò)與負采樣技術(shù)。

譯者 | 朱先忠

審校 | 重樓

簡介

目前推薦系統(tǒng)中最重要的模型類型之一是雙塔神經(jīng)網(wǎng)絡(luò)。它們的結(jié)構(gòu)如下:神經(jīng)網(wǎng)絡(luò)的一部分(塔)負責處理有關(guān)查詢的所有信息(用戶、上下文),而另一部分處理有關(guān)對象的信息。這些塔的輸出內(nèi)容是嵌入,然后這些嵌入進行乘法運算(點積或余弦運算,正如我們在論文已經(jīng)討論過的方式)。

在一篇關(guān)于YouTube的非常好的論文中,可以找到最早提到應(yīng)用此類網(wǎng)絡(luò)進行推薦的文章之一。我稱這篇文章為經(jīng)典之作因為它提出了最適合應(yīng)用于推薦領(lǐng)域的神經(jīng)網(wǎng)絡(luò)模型

圖片來自論文《Deep Neural Networks for YouTube Recommendations》(適用于YouTube推薦深度神經(jīng)網(wǎng)絡(luò)

這種網(wǎng)絡(luò)的特征有哪些呢具體來看,它們與矩陣分解非常相似,矩陣分解實際上是一種特殊情況,只將user_id和item_id作為輸入。然而,如果我們將它們與任意神經(jīng)網(wǎng)絡(luò)進行比較,對延遲交叉的限制(直到最后一層才允許來自不同塔的輸入融合)使兩個塔網(wǎng)絡(luò)在應(yīng)用中非常高效。要為單個用戶構(gòu)建推薦,我們需要計算一次查詢塔,然后將此嵌入與文檔的嵌入相乘,文檔的嵌入通常是預(yù)先計算的。這個過程非常快。

此外,這些預(yù)先計算的文檔嵌入可以被組織到ANN(人工神經(jīng)網(wǎng)絡(luò),是研究生物學(xué)上的神經(jīng)網(wǎng)絡(luò),又叫生物神經(jīng)網(wǎng)絡(luò),詳見:https://en.wikipedia.org/wiki/Nearest_neighbor_search)索引(例如,HNSW圖算法:https://github.com/nmslib/hnswlib)中,以快速找到好的候選者,而不必遍歷整個數(shù)據(jù)庫。

有興趣的讀者可以參考文章《Similarity Search, Part 4: Hierarchical Navigable Small World (HNSW)》(相似性搜索,第4部分:分層導(dǎo)航小世界(HNSW))。其中,分層導(dǎo)航小世界(HNSW)是一種先進的算法,適用于在高維空間中進行高效人工神經(jīng)網(wǎng)絡(luò)搜索的數(shù)據(jù)結(jié)構(gòu)和算法,可以有效地找到近似的最近鄰文章地址是:
https://towardsdatascience.com/similarity-search-part-4-hierarchical-navigable-small-world-hnsw-2aad4fe87d37?source=post_page-----fdc88411601b--------------------------------

我們可以通過計算用戶部分來獲得更高的效率,不是針對每個查詢,而是異步計算,并具有一定的規(guī)律性。然而,這意味著犧牲了對實時歷史和上下文的考慮。

塔樓本身可能相當復(fù)雜。例如,在用戶部分,我們可以使用自注意力機制來處理歷史,這導(dǎo)致了個性化的轉(zhuǎn)換。但是,實行延遲交叉限制的代價是什么?它會影響質(zhì)量。在同樣的注意力機制中,我們不能使用我們目前希望推薦的項目。理想情況下,我們希望關(guān)注用戶歷史記錄中的類似項目。因此,具有早期交叉的網(wǎng)絡(luò)通常用于排名的后期階段,此時只剩下幾十或幾百個候選者,而具有后期交叉的網(wǎng)絡(luò)(雙塔)則用于排名的早期階段和候選者生成。

(有一個純粹的理論論點認為,針對不同查詢的文檔的任何合理排序都可以通過足夠維度的嵌入進行編碼。此外,NLP中的解碼器實際上遵循相同的原理,只為每個令牌重新計算查詢塔。)

損失函數(shù)與負采樣

一個令人特別感興趣的問題是用于訓(xùn)練兩個塔網(wǎng)絡(luò)的損失函數(shù)。原則上,他們可以用任何損失函數(shù)進行訓(xùn)練,針對不同的結(jié)果,甚至對不同的頭部有多個不同的結(jié)果(每個塔中有不同的嵌入)。然而,一個有趣的變體是在批量負例上進行softmax損失訓(xùn)練。對于數(shù)據(jù)集中的每個查詢文檔對,在softmax損失中,同一小批中的其他文檔與同一查詢一起用作負例文檔。這種方法是一種非常有效的難負例挖掘形式。

是,重要的是要考慮對這種損失函數(shù)的概率解釋,這一點并不總是得到很好的理解。在經(jīng)過訓(xùn)練的網(wǎng)絡(luò)中,在下面公式中,

得分的指數(shù)不是與給定查詢的文檔的先驗概率成比例,而是與查詢特有的PMI(Pointwise Mutual Information,點互信息https://en.wikipedia.org/wiki/Pointwise_mutual_information)成比例。這種模型不一定會更頻繁地推薦更受歡迎的文檔,因為在訓(xùn)練過程中,它們按比例更頻繁地顯示為負例文檔。使用得分作為一個特征可能是有益的,但對于最終排名和候選生成來說,這可能會導(dǎo)致非常具體但質(zhì)量較差的文檔。

谷歌在一篇論文中建議在訓(xùn)練期間通過logQ校正來解決這個問題。另一方面,我們通常在應(yīng)用階段而不是在訓(xùn)練期間通過簡單地乘以文檔P(d)的先驗概率來解決這個問題。不過,我們從未比較過這些方法,這確實是一個有趣的比較。

隱式正則化:連接ALS和現(xiàn)代神經(jīng)網(wǎng)絡(luò)

有一種協(xié)作過濾算法被稱為隱式ALS(IALS)。我以前已經(jīng)提到過了。在前神經(jīng)網(wǎng)絡(luò)時代,它可以說是最流行的算法之一。它的顯著特點是有效地“挖掘”負:所有沒有交互歷史的用戶對象對都被視為負(盡管權(quán)重比實際交互小)。此外,與實際挖掘不同的是,這些負不會被采樣,而是在每次迭代中全部使用。這種方法被稱為隱式正則化。

這怎么可能?給定合理的任務(wù)大小(用戶和對象的數(shù)量),應(yīng)該有太多的負,即使列出它們也需要比整個訓(xùn)練過程更長的時間。該算法的美妙之處在于,通過使用MSE損失和最小二乘法,可以在每次完全迭代之前分別為所有用戶和所有對象預(yù)計算某些元素,這足以執(zhí)行隱式正則化。通過這種方式,該算法避免了二次大小。(更多細節(jié),請參閱我當時最喜歡的一篇論文)。

幾年前,我思考是否有可能將隱式正則化的美妙想法與更先進的雙塔神經(jīng)網(wǎng)絡(luò)技術(shù)相結(jié)合。這是一個復(fù)雜的問題,因為存在隨機優(yōu)化而不是全批,并且不愿意恢復(fù)到MSE損失(至少對于整個任務(wù);特別是對于正則化,這可能沒問題),因為它往往會產(chǎn)生較差的結(jié)果。

我想了很久,終于想出了一個解決辦法!幾周來,我一直很興奮,急切地期待著我們將如何用這種方法代替批量負樣

然后,當然(在這種情況下經(jīng)常發(fā)生),我在一篇論文中讀到,三年前一切都已經(jīng)得到解答。再次,是谷歌的貢獻。后來,在關(guān)于logQ校正的同一篇論文中,他們證明了具有批內(nèi)負的softmax損失比隱式正則化效果更好。

這就是為什么我們不再浪費時間來測試這個想法的原因

我們真的需要推薦模型的負采樣嗎?

畢竟,我們曾經(jīng)使用過推薦印象的真實例子,如果用戶沒有與們互動,這些可以被視為強負例的典型。(這不考慮推薦服務(wù)本身尚未推出而且還沒有印象的情況。)

這個問題的答案并不那么瑣碎;這取決于我們打算如何準確地應(yīng)用訓(xùn)練后的模型:用于最終排名、候選生成,或者僅僅作為輸入到另一個模型的特征。

當我們只根據(jù)實際印象訓(xùn)練模型時會發(fā)生什么?出現(xiàn)了相當強烈的選擇偏差,模型只學(xué)會很好地區(qū)分那些在特定上下文中顯示的文檔。對于未顯示的文檔(或者更準確地說,查詢文檔對),該模型的性能會差得多:它可能對某些文檔預(yù)測過高,而對其他文檔預(yù)測過低。當然,這種影響可以通過在排名中應(yīng)用探索來減輕,但通常這只是部分解決方案。

如果以這種方式訓(xùn)練候選生成器,它可能會生成過多的文檔來響應(yīng)查詢,這些文檔在這種情況下從未見過,而且它高估了對這些文檔的預(yù)測。在這些文中,通常都是無用的信息。如果最終的排名模型足夠好,它會過濾掉這些文檔,而不會向用戶顯示它們。然而,我們?nèi)匀徊槐匾卦?/span>們身上浪費候選名額(而且可能根本沒有留下任何合適的文)。因此,候選生成器應(yīng)接受訓(xùn)練,使其了解大部分文檔庫質(zhì)量較差,不應(yīng)推薦(作為候選提名)。針對此問題,負采樣是一個很好的方法。

在這方面,最終排名的模型與候選生成非常相似,但有一個重要的區(qū)別:們從錯誤中吸取教訓(xùn)。當模型因高估某些文檔的預(yù)測而出錯時,這些文檔會顯示給用戶,然后可能被包括在下一個訓(xùn)練數(shù)據(jù)集中。我們可以在這個新的數(shù)據(jù)集上重新訓(xùn)練模型,并再次向用戶推出。新的誤報將會出現(xiàn)。數(shù)據(jù)集的收集和再訓(xùn)練過程可以重復(fù)進行,從而產(chǎn)生一種主動學(xué)習(xí)。在實踐中,只需幾次再訓(xùn)練迭代就足以使過程收斂,并使模型停止推薦廢話。當然,必須權(quán)衡隨機推薦的危害,有時值得采取額外的預(yù)防措施。但總的來說,這里不需要負采樣。相反,它可能會損害探索,導(dǎo)致系統(tǒng)保持在局部最優(yōu)狀態(tài)。

如果該模型用于輸入到另一個模型的特征,那么同樣的邏輯也適用,但高估隨機候選文檔的預(yù)測所帶來的危害甚至不那么嚴重,因為其他特征可以幫助調(diào)整最終預(yù)測。(如果一個文檔甚至沒有進入候選列表,我們就不會為它計算特征。)

有一次,我們直接測試并發(fā)現(xiàn),作為特征,標準ALS比IALS工作得更好,但不應(yīng)用于候選生成。

小結(jié)

在本文探索分析中,我們強調(diào)了雙塔網(wǎng)絡(luò)在推薦排名中的有效性,檢驗了損失函數(shù)和負采樣在模型精度中的重要性,通過隱式正則化彌補了與經(jīng)典協(xié)同過濾的差距,并討論了負采樣在推薦系統(tǒng)中的重要作用。同時,這次討論強調(diào)了推薦系統(tǒng)技術(shù)不斷發(fā)展的復(fù)雜性和復(fù)雜性。

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計算機教師,自由編程界老兵一枚。

原文標題:Two-Tower Networks and Negative Sampling in Recommender Systems,作者:Michael Roizner

責任編輯:華軒 來源: 51CTO
相關(guān)推薦

2023-07-19 08:55:00

神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng)

2022-07-28 09:00:00

深度學(xué)習(xí)網(wǎng)絡(luò)類型架構(gòu)

2022-04-07 09:01:52

神經(jīng)網(wǎng)絡(luò)人工智能

2011-12-15 13:28:57

2024-12-27 09:37:51

2018-03-22 13:34:59

TensorFlow神經(jīng)網(wǎng)絡(luò)

2009-10-29 09:11:50

Juniper高性能網(wǎng)絡(luò)

2023-05-12 14:58:50

Java神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

2025-02-05 12:09:12

2022-10-21 16:07:10

編碼器自然語言模型

2023-10-31 18:52:29

網(wǎng)絡(luò)框架XDP技術(shù)

2017-06-09 10:00:15

大數(shù)據(jù)網(wǎng)絡(luò)拓撲可拓展模型

2025-06-03 08:15:00

微服務(wù)架構(gòu)異步任務(wù)隊列

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2024-06-11 08:19:34

2024-07-10 11:09:35

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2024-06-28 08:15:02

2020-09-09 09:51:41

神經(jīng)網(wǎng)絡(luò)DA技術(shù)感知器

2025-02-25 10:50:11

點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 91亚洲国产 | 亚洲精品一区二区三区 | 国产成人午夜高潮毛片 | 91免费在线视频 | 欧美美女爱爱视频 | 亚洲成av人片在线观看 | 日韩欧美中文字幕在线观看 | 精品视频 免费 | 国产综合久久久久久鬼色 | 五月精品视频 | 岛国av一区二区三区 | av一级久久 | 日韩在线观看中文字幕 | 99福利视频| h视频免费在线观看 | 国产a视频 | 欧美日韩成人影院 | 色婷婷一区 | 日本精品裸体写真集在线观看 | 综合久久综合久久 | 国产精品久久国产精品 | 91久久久久久 | 国产区精品视频 | 亚洲视频在线观看 | 欧美在线视频一区二区 | 四虎在线播放 | av网站在线看 | 亚洲成人第一页 | 久草欧美| 五月网婷婷 | 国产精品爱久久久久久久 | 黑人巨大精品欧美一区二区免费 | 日本在线网址 | 亚洲精品视频在线看 | 一区二区三区中文字幕 | 亚洲精品一区二区三区蜜桃久 | 精品国产乱码久久久久久丨区2区 | 久久精品99久久 | 欧美www在线观看 | 国产视频二区 | 欧美日韩一区二区电影 |