成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Nature封面:AI訓(xùn)AI,越訓(xùn)越傻

人工智能
來自牛津、劍橋等學(xué)校機(jī)構(gòu)的研究人員最新發(fā)現(xiàn),使用合成數(shù)據(jù)訓(xùn)練,大模型可能會崩潰。其研究成果被選為最新的Nature封面。

AI訓(xùn)練AI,可能會讓AI變傻?!

來自牛津、劍橋等學(xué)校機(jī)構(gòu)的研究人員最新發(fā)現(xiàn),使用合成數(shù)據(jù)訓(xùn)練,大模型可能會崩潰。其研究成果被選為最新的Nature封面。

直接一個:GARBAGE OUT!

要知道,現(xiàn)在絕大部分科技公司的大模型都在用合成數(shù)據(jù)來緩解“數(shù)據(jù)荒”。這下無疑是整個行業(yè)澆了一波冷水。

研究團(tuán)隊給了這樣一個例子。

他們測試了Meta的OPT-125m模型,詢問了關(guān)于中世紀(jì)建筑的相關(guān)信息。

每一次微調(diào)都是由上一次生成的數(shù)據(jù)來訓(xùn)練。結(jié)果前面幾輪回答還好。結(jié)果就在第九次,就開始胡說八道……

扯到兔子是什么鬼?!

該論文主要作者表示,他們曾考慮過合成數(shù)據(jù)可能對大模型造成誤差,但未曾預(yù)料到模型的惡化速度會如此迅速。

三個誤差導(dǎo)致模型崩潰

首先,團(tuán)隊定義了什么是模型崩潰。

模型崩潰是一個退化過程,模型生成的內(nèi)容會污染下一代的訓(xùn)練數(shù)據(jù)集。而在被污染的數(shù)據(jù)上訓(xùn)練之后,新一代模型就容易誤解現(xiàn)實。

以此循環(huán)往復(fù),一代更比一代差。

按照時間推移,主要分為兩種情況:早期模型崩潰和晚期模型崩潰。

早期模型崩潰中,模型開始丟失一些尾部信息。(類似概率分布中一些低概率事件) 而在晚期模型崩潰,模型將收斂到同原始分布幾乎沒有任何相似之處。

這一過程的發(fā)生,同模型設(shè)計、學(xué)習(xí)過程和所用數(shù)據(jù)質(zhì)量有關(guān)。

具體到理論中,主要包括了這三個誤差導(dǎo)致大模型同原始模型的偏離。

  • 統(tǒng)計近似誤差。這是主要類型的誤差,由于樣本數(shù)量有限而產(chǎn)生,并隨著樣本數(shù)量趨于無窮大而消失。這是因為在重新采樣的每一步中信息都有可能丟失,這種概率不為零。
  • 函數(shù)表達(dá)性誤差。這種誤差是由于函數(shù)近似表達(dá)能力有限而產(chǎn)生的。特別是,神經(jīng)網(wǎng)絡(luò)只有在其規(guī)模達(dá)到無窮大時才是通用近似值。不過,在沒有其他兩種誤差的情況下,這種誤差只會發(fā)生在第一代。
  • 函數(shù)近似誤差。主要由學(xué)習(xí)過程局限性引起,例如隨機(jī)梯度下降的結(jié)構(gòu)偏差或目標(biāo)的選擇。這種誤差可以看作是在無限數(shù)據(jù)和每一代都具有完美表達(dá)能力的情況下產(chǎn)生的誤差。

對語言模型的影響

隨后研究人員評估了模型崩潰對語言模型的影響。由于從頭開始訓(xùn)練大模型成本非常高,他們選擇評估語言模型最常見的設(shè)置:微調(diào)設(shè)置

每個訓(xùn)練周期都從具有最新數(shù)據(jù)的預(yù)訓(xùn)練模型開始。訓(xùn)練數(shù)據(jù)來自另一個經(jīng)過微調(diào)的預(yù)訓(xùn)練模型。

他們用Meta因果語言模型OPT-125m,在wikitext2上進(jìn)行了微調(diào)。

為了從訓(xùn)練好的模型中生成數(shù)據(jù),團(tuán)隊使用了five-way波束搜索。他們將訓(xùn)練序列設(shè)為 64 個token長度;然后對于訓(xùn)練集中的每個token序列,要求模型預(yù)測下一個64個token。

他們會瀏覽所有原始訓(xùn)練數(shù)據(jù)集,并生成一個相同大小的人工數(shù)據(jù)集。如果模型的誤差為0,它就會生成原始的wikitext2數(shù)據(jù)集。

為了進(jìn)一步感受區(qū)別,他們采用兩種不同的設(shè)置:一組是除了最開始訓(xùn)練,后續(xù)過程沒有任何原始訓(xùn)練數(shù)據(jù);另一組則是保留10%的原始數(shù)據(jù)。

結(jié)果顯示,隨著時間推移,模型產(chǎn)生的錯誤會增加。在模型完全崩潰之前,它還會導(dǎo)致模型遺忘數(shù)據(jù)集中低概率事件,他們的輸出也變得更加同質(zhì)化。最終也就出現(xiàn)了開頭這一現(xiàn)象。

另外在VAE、GMM模型中看到了類似模型崩潰的現(xiàn)象。


來自杜克大學(xué)的Emily Wenger教授表示,到目前為止,要緩解這一問題并非易事。

有領(lǐng)先的科技公司已經(jīng)部署了一項技術(shù),即嵌入“水印”——

標(biāo)記AI生成的內(nèi)容,讓其在訓(xùn)練數(shù)據(jù)中排除。但困難在于,這需要科技公司之間的協(xié)調(diào),因此不太具有商業(yè)可行性。

這樣一來,那從之前互聯(lián)網(wǎng)獲取數(shù)據(jù)的公司,他們訓(xùn)練的模型更能代表現(xiàn)實世界。所以,最開始那一波大模型算是有了先發(fā)優(yōu)勢。

對于這一觀點,你怎么看呢?

參考鏈接:
[1]https://www.nature.com/articles/d41586-024-02420-7。

[2]https://www.nature.com/articles/d41586-024-02355-z。
[3]https://www.nature.com/articles/s41586-024-07566-y。

責(zé)任編輯:姜華 來源: 量子位
相關(guān)推薦

2024-07-25 12:35:33

2024-07-25 13:56:49

2024-07-29 08:00:00

模型論文

2025-05-08 06:00:00

AI幻覺AI人工智能

2021-08-16 15:47:02

AI決策人工智能

2023-08-31 07:16:32

人工智能AI算力

2021-08-16 20:45:52

AI人工智能

2021-09-18 09:52:07

AI 數(shù)據(jù)人工智能

2021-09-29 15:36:43

人工智能算法AI

2025-05-26 09:06:00

2021-01-18 08:23:09

大數(shù)據(jù)AI人工智能

2024-09-09 10:20:00

AI模型

2025-03-10 09:15:00

2018-05-05 08:54:24

2024-10-21 14:56:51

2017-12-18 17:04:00

AI智能機(jī)器學(xué)習(xí)

2017-12-17 16:24:31

云計算AISaaS

2025-05-26 08:30:00

2021-12-02 15:57:46

AI 數(shù)據(jù)人工智能

2009-11-26 10:15:00

IT職場
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 久久久久综合 | 四虎成人av| 少妇性l交大片免费一 | 国产91丝袜在线熟 | 国产高清在线视频 | 婷婷综合网 | 羞羞视频网 | 国产精品国产 | 欧美日韩成人在线观看 | 欧一区二区 | 国产精品美女久久久久aⅴ国产馆 | 婷婷久久精品一区二区 | 欧美日韩亚 | 国产丝袜人妖cd露出 | 国产精品亚洲成在人线 | 福利片在线看 | 亚洲国产偷 | 91资源在线| 日本一区二区在线视频 | 国产午夜精品一区二区三区嫩草 | 四虎最新视频 | 夜久久 | 成年人在线观看 | 国产精品日韩一区二区 | 国产精品免费看 | 91视频在线观看 | 天天射网站 | 日韩欧美亚洲 | 欧美日韩不卡 | 久草网站 | 一区二区三区在线播放视频 | 日韩图区| 国产一区二区三区在线免费观看 | 亚洲网站在线观看 | 欧美久久国产精品 | 日韩影院在线 | 一区视频在线 | h片在线看 | 日韩精品中文字幕在线 | 精产国产伦理一二三区 | 国产精品影视在线观看 |