成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

GPT-4變笨!回答新問題性能太差,想保持水準只能不斷訓練新模型

人工智能
最近由UCSC的研究人員發表論文,證明大模型的零樣本或者少樣本能力,幾乎都是來源于對于訓練數據的記憶。

昨天,一篇系統性地研究了GPT-4為什么會「降智」的論文,引發了AI圈的廣泛討論。

隨著大家對GPT-4使用得越來越頻繁,用戶每過一段時間都會集中反應,GPT-4好像又變笨了。

圖片圖片

最近的情況是,如果用戶不小心和GPT-4說現在是12月份,GPT-4的輸出的內容就會明顯變少。

有一位用戶專門做了一個測試,分別告訴GPT-4現在是5月份和12月份,然后對比輸出結果,發現12月份的結果比5月份差了不少。

圖片圖片

大家討論都覺得是說GPT-4會給自己放寒假,看到12月份就不想干活了。

但是如果放在這篇論文中來看,作者認為,最主要的原因是大模型有一個現在看來幾乎是無解的缺陷——缺乏持續學習和進化能力。

圖片圖片

論文地址:https://arxiv.org/abs/2312.16337

我們發現在LLM在訓練數據創建日期之前的數據集上的表現,要明顯好于在訓練日期之后發布的數據集的表現。

圖片圖片

不論是零樣本還是多樣本的測試中,LLM都會呈現出這種情況。

論文還指出,LLM在他們以前真正「見過」的任務上表現良好,而在新任務上表現不佳,根本原因還是因為只是記住了答案,而沒有辦法有效地獲得新知識和理解。

而造成這種表現差別如此巨大的原因,就在于「任務污染」。

圖片圖片

在上表中,作者發現可以從GPT-3模型中都能提取任務示例,并且從davinci到GPT-3.5-turbo的每個新版本中,提取的訓練示例數量都在增加,與GPT-3系列模型在這些任務上的零樣本性能提高密切相關。

說白了,之所以模型在截止時間之前的數據集測試表現良好,是因為訓練數據中已經包含了數據集中的問題。

這充分說明了GPT-3系列各個版本在這些任務上的性能增強是由任務污染導致的。

對于那些不存在任務污染證據的分類任務,大型語言模型很少能在零樣本和少樣本設置下顯著優于簡單多數基準。

在上表中,研究人員也列出對于51個后訓練數據收集且無提取任務示例的模型/數據集組合中,只有1個組合的模型能在零樣本或少樣本設置下顯著優于多數基準。

這說明一旦沒有任務污染的可能性,LLM的零樣本和少樣本表現其實并不突出。

網友們看了之后悲觀地表示:目前很難構建能夠持續適應且不會對已編碼的過去知識和新知識造成災難性干擾的機器學習模型。

圖片圖片

ChatGPT是過去互聯網的快照 - 隨著互聯網的變化,ChatGPT 在有用任務的知識和性能方面都變得過時了。

OpenAI和大模型公司都必須面對這樣一個事實——他們必須不斷重新訓練新模型。

圖片圖片

也許,這就某種程度上為什么沒過一段時間,人們就會發現ChatGPT又變笨了,也許只是因為你不斷地在用新問題考它,它的真實水品慢慢地被暴露出來了。

測試模型

研究人員針對12個模型進行了測試:

5個OpenAI發布的GPT模型,7個開源的LLM。

圖片圖片

針對這些模型,他們選取了兩組剛好卡在模型訓練時間前后的數據集進行了測試。

圖片圖片

測試方法

時序分析

然后研究人員分別測試了不同模型在相同兩組數據集上的表現。從結果可以明顯看出,在模型數據訓練截止日期之后發布的數據集,零樣本和多樣本性能明顯要差了很多。

圖片圖片

對于12個模型和16個數據集,研究人員進行了192個模型/數據集組合。

在這些組合中,136 個數據集在 LLM 培訓數據收集日期之前發布(收集前),56 個數據集在之后發布(收集后)。對于這兩個集合,我們計算模型擊敗大多數基線(零樣本和少樣本)的模型/數據集組合的百分比。

結果如下圖 1 所示。我們發現,對于在創建 LLM 之前發布的數據集,LLM 更有可能在零和少數樣本設置上擊敗多數基線。

圖片圖片

針對單個的LLM,進一步發現:

針對每個LLM單獨進行測試。結果如上圖2所示。這樣的趨勢在具有全范圍日期的模型中保持不變,進一步表明數據集的絕對日期不是主要因素,而是日期數據集相對于法學碩士訓練數據收集日期的變化是更重要的因素。

任務示例提取分析

如果LLM能夠生成與測試數據中的示例完全匹配的示例,則證明LLM在訓練期間已經看到了該任務的測試集。

研究人員采用類似的方法來測試任務污染。他們不嘗試生成測試數據,而是提示模型生成訓練示例,因為對于零次或少次評估,模型不應在任何任務示例上進行訓練。

如果LLM可以根據提示生成訓練示例,這就是任務污染的證據。

下表4顯示了所有模型中所有任務的任務示例提取結果。

圖片圖片

進一步研究人員還發現,對于沒有被證明存在任務污染可能性的任務,LLM很少表現出比大多數基線具有統計顯著性的改進。

在上表4中,對于收集后且沒有提取任務示例的 51 個模型/數據集組合,51 個模型/數據集組合中只有 1 個(即 2%)在零樣本或少樣本設置的情況下表現出相對于大多數基線的統計顯著改進。

成員推理分析

為了進一步檢查訓練數據污染的影響,研究人員應用了成員推理來檢查模型生成的內容是否與數據集中的示例完全匹配。

圖片圖片

上圖5a和圖5b分別顯示了GPT-3系列版本和最新開源 LLM 的采樣訓練集和完整開發集生成的示例有多少是完全相同的。

因為數據庫模式(atabase schemas )不在零樣本提示中,因此如果模型可以生成與訓練或開發數據中完全相同的表名或字段名,則一定存在污染。

如圖5所示,精確匹配生成的示例數量隨著時間的推移而增加,這表明Spider上的任務污染程度正在增加。

他們還在提示中添加模式后計算執行準確性,并將其與完全匹配的代數進行繪制(圖 6)。我們發現完全匹配的生成示例數量與執行準確性之間存在很強的正相關性(?? = 0.88),這強烈表明污染的增加與性能的提高有關。

圖片圖片

參考資料:

https://arxiv.org/abs/2312.16337

責任編輯:武曉燕 來源: 新智元
相關推薦

2024-01-01 22:28:52

2024-03-08 12:35:27

AI模型

2024-01-26 12:31:16

OpenAIGPT-4代碼

2023-12-09 13:24:40

OpenAIChatGPT人工智能

2023-06-19 08:19:50

2024-03-08 13:18:44

模型訓練

2023-06-08 11:27:10

模型AI

2023-03-30 11:08:49

AI模型訓練

2023-07-14 09:49:16

2023-12-26 08:17:23

微軟GPT-4

2025-04-16 09:35:03

2023-12-12 06:44:04

OpenAIGPT-4GPT 模型

2024-07-02 01:09:02

2023-06-02 13:19:17

GPT-4文本代碼

2023-07-21 14:16:15

2023-08-15 15:03:00

AI工具

2023-05-29 09:29:52

GPT-4語言模型

2023-04-09 16:17:05

ChatGPT人工智能

2023-09-03 12:56:43

2025-05-30 07:40:56

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 黑人巨大精品 | 国产a区| 国产综合视频 | 亚洲字幕在线观看 | 久久亚洲精品国产精品紫薇 | 日韩成人av在线播放 | 超碰免费在线观看 | 97精品视频在线 | 日韩高清一区二区 | 九九九久久国产免费 | 日韩国产在线观看 | 精品国产乱码久久久久久蜜柚 | 国产原创在线观看 | av网站在线播放 | 国产精品中文字幕在线播放 | 日韩毛片网 | 91久久精品国产 | 日日夜夜天天 | 天天亚洲| 国产69精品久久99不卡免费版 | 国产精品免费大片 | 免费精品 | 亚洲精品一区二区三区在线 | 国产成人精品一区二区三区视频 | 久久国产精品一区二区三区 | 天堂中文在线播放 | 亚洲视频免费观看 | 国产免费一区二区三区 | 日本污视频 | www.狠狠操| www一级片 | 免费成人高清在线视频 | 亚洲444kkkk在线观看最新 | 国产三级一区二区三区 | 欧美日本韩国一区二区三区 | 国产一区二区三区四区三区四 | 成人在线视频网 | 欧美激情国产精品 | 日韩中文一区 | 殴美黄色录像 | 国产 日韩 欧美 制服 另类 |