成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

爆火的「GPT-4 MIT本科數學滿分」論文作弊,數據集本身有問題

人工智能 新聞
結論不應該如此被夸大。

這兩天,一篇關于 GPT-4 滿分通過 MIT EECS 和數學本科考試的論文在推特上瘋傳。

圖片

論文地址:https://arxiv.org/pdf/2306.08997.pdf

簡單概括,一個來自 MIT 的研究團隊從自己學校的數學、電氣工程和計算機科學 (EECS) 專業的課程問題、期中考試和期末考試中,整理出了一個包含 4550 個問題和解決方案的綜合數據集。

然后,研究團隊讓各種大語言模型去完成這個數據集的題目,結果太嚇人:GPT-3.5 能做對 1/3,GPT-4 幾乎滿分通過。

圖片

論文作者表示,提升模型表現主要靠「四件套」:Few-shot learning、CoT、Self-critique、Expert。

就像上表中所示,加持 GPT-4 的手法越多,模型的答題正確率就越高。原始的 GPT-4 本來就能拿到 90% 的正確率得分,一番運作之后,甚至直接拿到滿分。

但大部分討論得很激烈的網友可能沒注意到,這個分數本身就是用 GPT-4 打的……

圖片

三位同樣來自 MIT 的學生第一時間發現了這篇論文,作為險些被 GPT-4 趕超的群體,他們想立即領會一下爆款論文的方法論。

研究了一小時后,他們對該論文的方法產生了懷疑。

兩小時后,他們意識到:數據集本身有問題。

圖片

圖片

盡管原論文的作者宣稱已手動審查了發布的數據集質量,但三人發現,有明顯的跡象表明,測試數據集的很大一部分被污染了。

也就是說,模型就像一個學生在考試前被告知了答案,這是赤裸裸的「作弊」。

圖片

產生質疑后,他們立即著手在數據集上完成了零樣本 GPT-4 的運行,并對數據的前 30% 進行了手動評分,結果與原論文相差甚遠,應該說是一個天上、一個地下。

圖片

「作為麻省理工學院的本科生,至少根據我們的經驗,這個測試集并不能準確地代表在麻省理工學院獲得 EECS 學位所需的理解廣度和深度。」三人在博客中這么寫道。

圖片

最新進展:零樣本 GPT-4 的準確率能達到 62.5% 了,但還是和論文里宣稱的 90% 差很多。

三人還質疑了「過度宣傳」的風潮:「這些論文通常在任何合法的同行評審之前就被上傳到 Arxiv,并在 Twitter 上廣泛分享。在這種情況下,可能會傳播不良信息,并為未來的工作樹立一個糟糕的先例。」

「深度學習」斗士 Gary Marcus 也不出意料地聲援了這波質疑:

圖片

同時,三人也在博客中指出一點:《Exploring the MIT Mathematics and EECS Curriculum Using Large Language Models》論文上列出的幾個作者都是本科生研究人員,讓這些人對工作中出現的任何失誤負責是不合適的。相反,責任應該在指導作者身上 —— 他們才是被期望確保工作符合其領域內公共學術標準的人。

接下來讓我們看下,這篇「爆火」論文都有哪些問題。

數據集到底有什么問題?

首先,從原論文中得知,研究者收集的數據集包含獲得 MIT 學位考試所需的 30 門數學和 EECS 課程的 4550 個問題和相應的解決方案,涵蓋核心課程和選修課程。

圖片

論文中寫道:「在沒有圖像和有解決方案的問題中隨機選擇了 288 個問題的測試集。」

這個數據集(不包括用于微調開源 LLM 的訓練集)隨著論文的公開也被發布到 GitHub 上,同時發布的還有用于生成報告的測試性能的代碼。然而,作者 Drori 教授在最近的一次提交中已經將其刪除。

圖片

經過檢查、對比,三人確信這個被刪掉的文件代表了論文中分析的測試集,因為評估代碼中的所有數據的文件路徑都指向它,沒有提供任何修改其內容的代碼,而且它在最初發布的 GitHub 倉庫中是可用的。此外,該文件滿足了論文中規定的所有模式要求(行數等)。這些證據似乎非常有力地支持了下面的所有主張,

「但我們要承認,這個文件有可能被換成了一個用于測試的不同文件。如果是這樣的話,我們認為證明的責任在于作者公開發布這個數據和用它做的所有分析。」

那么,被掩蓋的問題究竟是什么呢?三人給出了自己的分析。

無法解決的問題(約占測試集的 4%)

鑒于原論文表示,任何形式的 GPT-4 都能在測試集上產生一個完美的分數,三人開始檢查個別數據點。他們很快就發現,根本不可能有滿分,因為數據集中至少有 10 個問題是無法用所提供的信息解決的,另外幾個問題在這種情況下根本就不是有效的問題。

像這種「有問題的問題」,至少占據了測試集的 4%。

在一個擴展的 excel 文檔里,三人對已經發現有問題的數據集例子進行了注釋。「紅色」代表用提供的信息無法解決的問題,「黃色」代表一部分不太合理的問題。

頁面地址:https://docs.google.com/spreadsheets/d/1FZ58hu-lZR-e70WP3ZPNjp9EK_4RgrQvQfsvjthQh_Y/edit?usp=sharing

重復的問題(約占測試集的 5%)

使用文本相似性檢測,三人發現有 14 個問題(7 對)在 288 個問題的測試集中是重復的,在這些情況下,問題串之間的唯一區別是極小的字符級噪音,甚至完全相同。

鑒于這些無法解決的問題,GPT-4 能夠通過任何方式獲得 100% 的準確率,也是難以置信。要么是在某個階段出現了答案泄漏到 prompt 中,要么是問題沒有被正確打分。

這些初步的發現促使他們從少樣本示例開始進一步調查(如果模型在零樣本正確率方面失敗的話),最終發現,既有解題信息的泄露,也有用于對模型輸出進行分級的方法問題。具體情況如下:

少樣本示例中的信息泄露

值得注意的是,原論文中還提到了「少樣本示例」這個事。

簡而言之,論文對 OpenAI 嵌入的數據集內的類似問題進行余弦相似度搜索,并將這些問題和解決方案作為額外的上下文納入模型的 prompt,幫助模型解決問題。

這個方法本身是沒問題的,只要這些示例與有關問題有足夠的差異,且避免暴露不公平的信息。

只是隨機掃描已發布的測試數據集時,三人注意到一些奇怪的事情:許多提供給模型的「少樣本示例」與問題本身幾乎一字不差。

為了進一步了解這一點,他們寫了一個簡單的腳本,查看了所提供的幾個示例的問題陳述和所列出的問題之間的重疊情況,并繪出了直方圖:

圖片

許多提供的少樣本與問題本身幾乎相同,這意味著模型得到的是問題的答案或與問題非常相似的問題。通常情況下,這來自于大量的共享背景的多環節問題的重復。

他們認為,為了正確評估 GPT 的解題能力,多環節問題的其他部分應該被完全排除在某一問題的少樣本示例之外。事實上,他們發現這些多環節問題的解決方案,往往直接提到或給出了模型被要求解決的另一部分問題的答案。

不僅如此,在對這些數據的挖掘中,他們還發現了整個問題被重復的樣本。比如:

圖片

在這兩種情況下,答案是完全相同的。很難說不算信息泄漏了。

GPT-4 自動打分,有問題

此外,三人還在原論文開源的打分機制中發現了問題:

def repeat_grading(input_path, output_path, num_experts = 3, num_fs = 3, most_recent_q = 0):
    df = pd.read_csv(input_path)
    df = df.iloc[most_recent_q:]


    for index, row in df.iterrows():
        print('Completing question', index)
        question_output = row.values.tolist()
        course_name = row['Course Name']
        question = row['Question']
        solution = row['Solution']
        fs_qs = [[row['Few shot question 1'], row['Few shot solution 1']], [row['Few shot question 2'], row['Few shot solution 2']], [row['Few shot question 3'], row['Few shot solution 3']]]
        experts = get_experts(course_name, question, num_experts).split(', ')
        prompts = [lambda expert: zero_shot_response(question, expert),
                    lambda expert: few_shot_response(expert, question, fs_qs),
                    lambda expert: few_shot_response(expert, question, fs_qs, True)
        ]
        critiques = [["Review your previous answer and find problems with your answer.", "Based on the problems you found, improve your answer."], ["Please provide feedback on the following incorrect answer.","Given this feedback, answer again."]]


        for expert in experts:
            print("Using expert", expert)
            question_output.append(expert)
            crit = True
            for prompt in prompts:
                prompt_response = prompt(expert) # calls fresh ChatCompletion.create
                prompt_grade = grade(course_name, question, solution, prompt_response) # GPT-4 auto-grading comparing answer to solution
                question_output+=[prompt_response, prompt_grade]
                if correct(prompt_grade):
                    crit = False
                    break
            if crit:
                for critique in critiques:
                    crit_response = self_critique_response(expert, course_name, question, question_output[-2], critique) # calls fresh ChatCompletion.create
                    crit_grade = grade(course_name, question, solution, crit_response) # GPT-4 auto-grading comparing answer to solution
                    question_output+=[crit_response,crit_grade]
                    if correct(crit_grade):
                        break


repeat_grading('MIT_test_set.csv', 'MIT_test_set_graded.csv')

在代碼中,能看出流程上處理分級存在嚴重的問題:論文是用 GPT-4 去評估檢查的,包括 a)原始問題,b)解決方案,c)GPT 自己的答案,作為分級 prompt 中的參數。

在更多的技術領域,GPT 更有可能出現隱性誤解,這種自動評分更有可能出現「自我欺騙」的結果。

此外,雖然 prompt 級聯是最近許多 GPT 論文中常見的技術,但這里有大量數據泄漏的可能性。每一級不僅提供基于 ground truth 的二元信息,而且還在繼續 prompt,直到達到正確答案。

盡管這些創建的 prompt 并沒有看到實際的答案,但重新 prompt 直到達到正確答案的形式已經足夠了,尤其是在占測試集 16% 的多選題中,無限次的嘗試(幾乎)保證了正確答案一定會出現。

這就好比有人拿著答題紙,告訴正在考試的學生答得對不對,一直提示到學生得到正確答案。

總結

在博客的最后,三位這樣寫道:

這篇論文道出了最近人工智能領域研究的一個更大趨勢。隨著該領域的進展越來越快,新發現的時間節奏似乎在縮短,這往往伴隨著捷徑。一個特別令人擔憂的趨勢是使用像 GPT-4 這樣基于語言的模型來評估一個模型的準確性的技術。

雖然是一個有用的工具,但它的結論絕不應該被夸大,也不應該被當作 ground truth。最近的工作表明,如果沒有準確的 ground truth 信息,GPT-4 評估器就不能可靠地用于驗證。至少,應該選擇一個隨機的數據集子集,將 GPT-4 的性能與人類的評估進行比較。語言模型還不能被當作產生 ground truth 的神諭。

此外,在使用數據之前,無論是用于訓練、推理、基準測試還是其他方面,重新評估每一個數據點并進行基本的檢查是極其重要的。鑒于有關數據集的規模較小,簡單的人工驗證很容易在工作范圍內完成。 

我們的批評主要是針對這項研究的方法和嚴謹性,而不是針對其內容。我們對大型語言模型實際解決麻省理工學院課程的能力沒有任何意見,只是認為本文未能以科學嚴謹的方式證明這一點。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-06-19 12:28:21

GPT人工驗證數據集

2023-03-24 16:02:59

GPT-4測評

2023-06-25 12:46:24

GPT-4人工智能

2023-06-01 12:46:46

GPT-4數學OpenAI

2023-09-18 08:54:13

研究數據

2023-05-15 12:32:29

GPT-4開源

2023-06-19 08:19:50

2023-12-11 19:08:59

AI模型

2025-04-16 09:35:03

2023-11-10 09:48:34

2023-07-25 09:23:23

Llama 2GPT-4

2023-04-10 11:45:26

GPT-4AI

2023-12-12 13:57:00

GPT-3.5MistralAI

2023-05-15 15:38:59

AI模型

2023-04-25 15:41:59

2025-05-30 07:40:56

2023-11-13 19:31:47

GPT-4VLLaVABard

2024-06-24 17:45:16

2023-06-19 09:57:23

GPT-4技術

2023-03-29 14:58:04

GPT-4技術
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲第一av | 波多野结衣中文字幕一区二区三区 | 天天曰天天曰 | 欧美久| 在线看av网址 | 国产精品久久久久久av公交车 | 欧美日韩黄色一级片 | 天天草夜夜骑 | 日韩a在线观看 | av在线一区二区三区 | 日本特黄a级高清免费大片 成年人黄色小视频 | 欧美日韩亚洲视频 | 欧美激情在线精品一区二区三区 | 亚洲精品视频免费观看 | 久久久国产一区 | 日韩精品一二三 | 国产精品一区久久久久 | 亚洲国产情侣 | 亚洲一区精品在线 | 久久97精品 | 日韩激情免费 | 国产免费一区二区三区 | 成人免费视频网站在线观看 | 九色视频网站 | 久久成人精品视频 | 亚洲一区二区高清 | 欧美黄色一区 | 欧美4p| 精品1区2区3区 | 国产精品久久久久久婷婷天堂 | 一级片网址| 黄色网址在线免费观看 | 中文字幕av免费 | 国产亚洲一区二区在线观看 | 欧美综合国产精品久久丁香 | 国产免费人成xvideos视频 | 国产伦精品一区二区 | 在线视频久久 | 久久久精 | 黄网站免费在线观看 | 亚洲一区二区三区桃乃木香奈 |