成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

量化能讓大模型“恢復記憶”,刪掉的隱私版權內容全回來了,SU哈佛亞馬遜最新研究引熱議

人工智能 新聞
最近,來自賓夕法尼亞州立大學、哈佛大學、亞馬遜團隊的一項新研究在reddit、Hacker News上引起熱議。

4-bit量化,能讓現(xiàn)有反學習/機器遺忘技術失靈!

也就是大模型在人類要求下“假裝”忘記了特定知識(版權、私人內容等),但有手段能讓它重新“回憶”起來。

最近,來自賓夕法尼亞州立大學、哈佛大學、亞馬遜團隊的一項新研究在reddit、Hacker News上引起熱議。

圖片

他們發(fā)現(xiàn)對“失憶”的模型量化(quantization),可以部分或甚至完全恢復其已遺忘的知識。

原因是在量化過程中,模型參數(shù)的微小變化可能導致量化后的模型權重與原始模型權重相同。

圖片

看到這項研究后,不少網友也表示有點意外:

從信息理論的角度來看這有點出人意料,似乎已經在完整的32-bit中成功移除了這些知識,但當你將其壓縮到4-bit時,知識又重新出現(xiàn)了。

這讓人不禁想知道在壓縮/量化步驟中到底丟失了什么信息。

圖片

可能這些知識從未真正丟失,只是被隱藏了。

如果我們把神經網絡看作是代碼,權重就是源代碼,微調實際上可能有效地修改了這些代碼,以阻止返回某些結果。

因此,你可能只是在某些輸出周圍建立了防火墻。但量化可能使這些最近的編輯消失,它們太微小而無法保留。

圖片

值得一提的是,團隊提出了一種緩解此問題的策略。

這種策略通過構建模塊級別的顯著性圖來指導遺忘過程,只更新與遺忘數(shù)據(jù)最相關的模型部分,從而在保持模型效用的同時,減少量化后知識恢復的風險。

話不多說,具體來康康。

讓失憶的大模型重新記起來

圖片

大模型在訓練過程中可能會無意學習到人類不希望它保留的知識,例如版權和私人內容。為了解決這個問題,研究者們此前提出了反學習(machine unlearning)的概念,旨在不重新訓練模型的情況下,從模型中移除特定知識。

現(xiàn)有的主流反學習方法包括梯度上升(GA)負向偏好優(yōu)化(NPO)兩大類,通常會采用較小的學習率并加入效用約束,以在遺忘特定內容的同時保持模型的整體性能。

用于優(yōu)化模型遺忘的最常用數(shù)學表達式是:

圖片

再來看量化,考慮一組或一塊權重w,線性操作可以表示為y=wx,量化后為y=Q(w)x,其中 Q(?)是量化函數(shù):

圖片
在這項研究中,研究人員使用Q(f)表示量化后的模型f。因此,實施一個反學習法然后對遺忘后的模型進行量化可以寫為:

圖片

研究人員評估了針對大模型的六種有效的反學習方法——結合NPO、GA兩種策略,在保留集上進行梯度下降(GDR)或最小化KL散度(KLR),形成了GA、GA_GDR、GA_KLR、NPO、NPO_GDR、NPO_KLR。

結果顯示,這些方法在經過量化后會出現(xiàn)“災難性失敗”。

具體表現(xiàn)為,在全精度下,加入效用約束的反學習法平均保留21%的目標遺忘知識,但經過4-bit量化后,這一比例急劇上升到83%。

這意味著大部分被“遺忘”的知識通過簡單的量化操作就能恢復。

實驗中還使用了不同位數(shù)的量化,包括4-bit和8-bit量化,量化精度對遺忘效果也有顯著影響,8-bit量化的影響相對較小,模型表現(xiàn)接近全精度版本,但在4-bit量化下,遺忘性能顯著惡化。

實驗在NEWS(BBC新聞文章)和BOOKS(哈利波特系列)等基準數(shù)據(jù)集上進行,使用了四個評估指標:

逐字記憶(VerMem,評估逐字復制能力)、知識記憶(KnowMem,評估知識問答能力)、隱私泄露(PrivLeak,基于成員推理攻擊評估隱私保護程度)以及保留集效用(評估模型在非遺忘數(shù)據(jù)上的表現(xiàn))。

圖片

研究人員還分析了各種量化技術對遺忘的影響,用GPTQ和AWQ兩種先進的4-bit量化法在相同的實驗設置下進行實驗,NEWS數(shù)據(jù)集上的結果如下:

圖片

GPTQ和AWQ的表現(xiàn)與RTN相似。

盡管研究人員表示已努力有效地調整參數(shù),但校準數(shù)據(jù)集是通用的,而不是針對遺忘數(shù)據(jù)集的領域進行定制,這意味著GPTQ和AWQ仍然可能保留了本應被遺忘的知識。

為什么?怎么辦?

經分析,研究人員認為這一問題的根本原因在于:

現(xiàn)有反學習法為了保持模型效用而使用較小的學習率和效用約束,導致模型權重變化很小,在量化過程中原模型和遺忘后模型的權重很容易被映射到相同的離散值,從而使被遺忘的知識重新顯現(xiàn)。

圖片

由此,研究人員提出了一種稱作SURESaliency-Based Unlearning with a Large Learning Rate的框架作為改進方案。

圖片
圖片
圖片

該框架通過構建模塊級顯著性圖來指導遺忘過程,選擇性地對與遺忘數(shù)據(jù)最相關的組件使用較大的學習率,同時最小化對其它功能的影響。

通過實驗,驗證了SURE策略防止量化后遺忘知識恢復的有效性,并且與現(xiàn)有的反學習方法相比,SURE在全精度模型上實現(xiàn)了可比的遺忘性能和模型效用。

圖片

研究人員還探討了SURE策略中不同閾值對遺忘性能的影響,發(fā)現(xiàn)適度的閾值可以在遺忘性能和模型效用之間取得平衡。

圖片

更多細節(jié),感興趣的童鞋可以查閱原論文,代碼已在GitHub上公開。

論文鏈接:https://arxiv.org/pdf/2410.16454

責任編輯:張燕妮 來源: 量子位
相關推薦

2021-03-05 15:58:45

AI 數(shù)據(jù)人工智能

2013-01-18 14:00:59

VMware

2017-06-27 11:57:50

雪佛蘭

2023-01-07 14:31:49

GitHub代碼

2013-03-25 14:10:02

Windows Blu

2024-09-02 09:12:00

場景管理

2023-09-14 12:46:00

模型數(shù)據(jù)

2014-11-11 14:31:07

應用交付/地鋪科技

2009-11-30 15:05:54

2024-08-08 13:03:46

2013-11-05 17:36:09

2022-01-13 19:13:02

虛幻引擎手機QQ

2013-02-22 15:06:46

WPS陳歐體金山軟件

2015-08-19 10:12:16

CIO時代網

2024-04-10 12:35:50

2025-04-14 09:10:00

模型神經網絡AI

2017-06-30 15:27:19

智能 語音

2014-11-12 14:56:48

ZAKER

2024-01-10 17:37:17

概率token模型

2023-11-22 11:29:28

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美精品一区在线观看 | 九九在线视频 | 国产精品1区2区 | 日韩精品一区二区三区视频播放 | 激情一区| 久在线视频 | 一本岛道一二三不卡区 | 国产在线a视频 | 一区二区在线免费观看 | 超碰8| 亚洲精品大全 | 亚洲欧美中文日韩在线v日本 | 欧美视频二区 | 一区二区国产在线观看 | 亚洲国产精品久久人人爱 | 亚洲成人在线视频播放 | 一级做a爰片性色毛片视频停止 | h视频在线免费观看 | 久在线视频播放免费视频 | 伊人春色在线 | 羞羞的视频免费观看 | 一级特黄视频 | 国产精品久久久久一区二区 | 亚洲精品美女视频 | 亚洲精选一区二区 | 二区三区av | 亚洲高清电影 | 男女啪啪高潮无遮挡免费动态 | 99爱国产| 日韩精品一区二区三区中文在线 | 欧美性tv| 免费黄色片在线观看 | 91秦先生艺校小琴 | 请别相信他免费喜剧电影在线观看 | 狠狠狠干 | 欧美日一区二区 | 国产成人免费视频网站高清观看视频 | 国产乱码精品1区2区3区 | 天天色天天射天天干 | 欧美国产日本一区 | 在线欧美亚洲 |