OpenAI新模型「草莓」曝光:強推理/長任務規(guī)劃/超大規(guī)模訓練!還給出AGI分級
OpenAI最新絕密項目曝光!
知情人士透露,OpenAI正在開發(fā)一個名為“草莓(Strawberry)”的新模型,它的前身是Q*。
其工作機制在內(nèi)部被嚴格保密,且細節(jié)從未被外界報道過。
消息稱,“草莓”模型不僅在超大規(guī)模數(shù)據(jù)集上完成預訓練,并且采用了一種特殊的方法。
馬斯克已火速趕來吃瓜:
之前都說,AI災難會是回形針成災。如今來看,可能是草莓田了。(哲學家尼克·博斯特羅姆曾提出高度智能的AI可能被設計為回形針,意思是看似無害但可能風險巨大)
本周二,OpenAI在一次內(nèi)部全體會議上展示了一個demo。據(jù)稱該項目的推理能力已接近人類水平。
盡管OpenAI拒絕透露會議具體內(nèi)容,無法確定該項目是否就是“草莓”。但可以肯定,推理能力被業(yè)界認為是AI達到人類智能水平的關鍵。
巧合的是,周二OpenAI科學家Noam Brown發(fā)了一條推特,感慨OpenAI總是會堅定地在重大研究方向上持續(xù)押注。
而這位科學家去年才跳槽到OpenAI,主要負責研究模型推理能力,之前一直被認為在研究Q*。
在最新曝光信息中,還顯示“草莓”使用的推理方法和2022年斯坦福發(fā)表的一種方法相似。
具體來看更多細節(jié)。
具備強推理且有自主能力
據(jù)路透社消息,5月份他們看到了OpenAI一份內(nèi)部文件副本,上面詳細說明了“草莓”項目的研究計劃。
消息人士稱這是一項正在推進的工作。但是“草莓”的工作原理在OpenAI內(nèi)部被嚴格保密。
文件中顯示,公司希望“草莓”模型不僅能生成答案,而且能執(zhí)行長任務(LHF),包括提前進行規(guī)劃,自主可靠地在互聯(lián)網(wǎng)上導航以及一系列行動。
比如通過CUA(一種計算機代理)的幫助來自動瀏覽網(wǎng)頁,該代理可以根據(jù)發(fā)現(xiàn)內(nèi)容采取行動。
十余位業(yè)內(nèi)人士認為,這是當下AI模型所不能解決的問題。
為此,OpenAI正在開發(fā)訓練評估這些模型。內(nèi)部形成了一個名為“深度研究”的數(shù)據(jù)集,具體內(nèi)容不詳。同時OpenAI還計劃測試模型可以如何影響軟件和機器學習工程師的工作。
在被問及關于“草莓”的細節(jié)時,OpenAI一位發(fā)言人沒有直接回答問題,但是在一份聲明中表示:
我們希望我們的愛模型能像人類一樣看到和理解世界,不斷研究新模型是行業(yè)內(nèi)都在做的事,大家都相信隨著時間推移,這些系統(tǒng)的推理能力將得到改善。
據(jù)了解,“草莓”的前身是Q*。
此前消息稱,Q*被OpenAI視為一項重大突破。一些看過Qdemo的內(nèi)部人員表示,該項目能回答其他大模型所不能應對的棘手科學和數(shù)學問題。
知情人士表示,OpenAI希望通過該項目大幅提升AI模型的推理能力,“草莓”已經(jīng)在非常大的數(shù)據(jù)集上完成預訓練,并使用了一種專門的處理方法。
包括后訓練(post-training);或者在已經(jīng)進行大規(guī)模訓練后,再調(diào)整基礎模型來“磨煉”性能。
后訓練部分包括常見的微調(diào)、人類反饋強化學習(RLHF)等。
值得一提的是,一位知情人士透露,“草莓”與斯坦福大學在2022年(當時ChatGPT還未發(fā)布)提出的一種名為自學推理(Self-Taught Reasoner,簡稱STaR)的方法很相似。
就在今年,斯坦福團隊又基于STaR,提出了一種名為Quiet-STaR的推理方式,簡寫的話就是Q*了。
不過還是先從基礎的STaR說起,它的創(chuàng)新點在于不依賴大規(guī)模人工標注的數(shù)據(jù)集進行訓練,通過自舉的方式讓大模型自己學會如何推理。
具體來說,一開始會把少量帶有推理步驟的樣本作為示范,與待推理的問題一起輸入給模型。
然后模型會生成每個問題的推理步驟和答案,從中篩選出推理結果正確的樣本,將其作為新的訓練數(shù)據(jù)。
對于無法正確推理的問題,作者還引入了“反向推理”機制,將正確答案作為提示,讓模型倒推對應的推理步驟,將生成結果并入訓練集。
最終,作者用新的訓練數(shù)據(jù)微調(diào)原始語言模型,重復進行推理生成,直至性能趨于穩(wěn)定。
結果,在CommonsenseQA數(shù)據(jù)集上,STaR將GPT-3 Curie(6.7B參數(shù))的準確率從33.6%提升到72.5%,與30倍參數(shù)量的微調(diào)模型(GPT-3 DaVinci,175B參數(shù))性能相當。
時隔兩年,本次發(fā)布的Quiet-STaR,在此基礎之上做出了一些重要改進。
其中最核心的是把推理過程的生成從顯式的思考變成了隱式的內(nèi)部思考,實現(xiàn)了對推理過程的靜默建模,這也就是名稱中quiet的由來。
不同于STaR在輸入中明確包含生成推理步驟的prompt,Quiet-STaR直接在模型內(nèi)部、每個token處并行地生成推理過程。
同時,Quiet-STaR引入了可學習的“思考開始”和“思考結束”特殊token,使模型能夠自主學習何時開始和結束推理。
為了緩解推理引入的分布偏移問題,Quiet-STaR使用了一個混合頭來動態(tài)融合有無推理時的下一token預測結果,使模型能夠平滑過渡到生成推理的狀態(tài)。
另一個不同點是,Quiet-STaR采用了一個非短視的、多步預測的訓練目標。模型生成推理時,不僅要考慮下一個token,還要考慮對之后多個token的影響,從而生成高質(zhì)量、長遠的推理。
數(shù)據(jù)方面,Quiet-STaR不再局限于STaR使用的特定推理數(shù)據(jù)集或任務,而是使用了互聯(lián)網(wǎng)文本等大規(guī)模語料,讓模型的推理能力更加多樣化。
效果上看,這次的baseline模型換成了Mistral-7B,在GSM8K和CommonsenseQA兩個數(shù)據(jù)集上,應用Quiet-STaR訓練后準確率均有所提升,且隨著思考token數(shù)量增加提升越來越明顯。
具體來說,baseline模型在GSM8K和CommonsenseQA上的準確率分別是5.9%和36.3%,加入Quiet-STaR后最高上升到了10.9%和47.2%。
論文作者Noah Goodman教授表示,對于最新曝光的消息,他感覺既興奮又恐懼。
如果一切真的朝著這一方向發(fā)展,那么作為人類就要考慮一些嚴肅的問題了。
OpenAI定義AI的L1-L5
對于最新的曝光內(nèi)容,有人覺得是炒作,有人覺得這倒是比語音模型進展有意思。
還有人覺得,如果Noam Brown都認可了,那應該是一個值得期待的進展。
不過最近OpenAI內(nèi)部的動作似乎又多了起來。
也是在周二這次全體會議上,OpenAI提出了一套評級來定義AI的進展。
一共可以分為5級:
- L1:Chatbots,具備對話能力,比如ChatGPT。
- L2:Reasoners,人類級問題解決能力,OpenAI已接近。
- L3:Agents,可以代表用戶采取行動。
- L4:Innovators,AI可以輔助發(fā)明創(chuàng)造。
- L5:Organizations,AI可以像一個管理者那樣完成工作。
最后一級L5,也就是達到AGI的最后一步。此前OpenAI將AGI定義為“在最具經(jīng)濟價值的任務中超越人類的高度自治系統(tǒng)”。
除了OpenAI以外,DeepMind、Anthropic也對AI系統(tǒng)提出了分級定義。
△來源:蘆義,Brilliant Phoenix 合伙人 / 數(shù)字鏡像博主
你更認可哪一家呢?
參考鏈接:
[1]https://www.reuters.com/technology/artificial-intelligence/openai-working-new-reasoning-technology-under-code-name-strawberry-2024-07-12/
[2]https://www.reddit.com/r/OpenAI/comments/1e1umu2/exclusive_openai_working_on_new_reasoning/
[3]https://arxiv.org/abs/2403.09629
[4]https://www.theverge.com/2024/7/11/24196746/heres-how-openai-will-determine-how-powerful-its-ai-systems-are