被神化的o1模型,規(guī)劃能力到底如何?
最近OpenAI推出了新的o1模型,與之前類似檢索器的大語言模型(LLM)不同,o1被稱為推理器模型。o1模型可能是類似于 AlphaGo 的強化學(xué)習(xí)訓(xùn)練系統(tǒng),只不過所生成和評估的“動作”是思維鏈。
依據(jù) OpenAI 發(fā)布該模型的博客:o1模型與過去的大語言模型有所區(qū)別,是一個新系列的大型推理模型,代表了人工智能能力的新水平。所以,OpenAI將模型的計數(shù)器重置為1,命名為OpenAI o1模型。
在o1-preview 和 o1-mini 發(fā)布了一周后,作者在 PlanBench 測試數(shù)據(jù)集上進行了性能測試。
PlanBench 是一套專門用于評估LLM規(guī)劃能力的工具套件。
那么,o1系列模型在規(guī)劃能力上到底表現(xiàn)如何?
1. 傳統(tǒng) LLM 在PlanBench上表現(xiàn)如何?
對于傳統(tǒng)大型語言模型(通過 RLHF 進行微調(diào)的大規(guī)模 Transformer 模型),他們在 PlanBench 上的表現(xiàn)都差強人意,這表明依靠近似檢索通常無法穩(wěn)妥地解決規(guī)劃問題。
圖片
上表展示了前一代的LLM在Blocksworld和Mystery Blocksworld數(shù)據(jù)集上的表現(xiàn)。
在 Blocksworld 靜態(tài)數(shù)據(jù)集上,表現(xiàn)最好的模型是 LLaMA 3.1 405B,準(zhǔn)確率達(dá)到了62.6%。
但是在Mystery Blocksworld數(shù)據(jù)集上(該數(shù)據(jù)集為600個語義相同但句法混淆的測試數(shù)據(jù)),沒有任何一個模型能達(dá)到5%的準(zhǔn)確率。
2. o1系列模型表現(xiàn)如何?
傳統(tǒng)LLM是通過類似【檢索】的方式生成結(jié)果的,盡管在【System 1】類任務(wù)重表現(xiàn)出色,但是在更加偏向于【System 2】的任務(wù)上,比如:規(guī)劃任務(wù),表現(xiàn)一般。
據(jù)論文作者所知,o1模型是一個底層 LLM(很可能是經(jīng)過修改的 GPT-4o)整合進了一個經(jīng)過強化學(xué)習(xí)訓(xùn)練的系統(tǒng),該系統(tǒng)引導(dǎo)著私有思維鏈推理軌跡的創(chuàng)建、管理與最終選擇。目前大家能了解到的細(xì)節(jié)仍然不多,所以只能對其確切機制進行推測。
本篇論文作者猜測 o1 與 LLM 主要有兩點不同:
? 1、增加了一個強化學(xué)習(xí)的預(yù)訓(xùn)練階段(可能是為了從海量合成數(shù)據(jù)中學(xué)習(xí)不同思維鏈的q值)
? 2、引入了一種新的自適應(yīng)推理過程(或許在選擇特定的思維鏈之前,它會通過類似于展開的方式進一步提煉已學(xué)習(xí)的q值)。
2.1 在靜態(tài)測試數(shù)據(jù)集上評估o1
在靜態(tài)的 PlanBench 測試集上對 o1-preview 和 o1-mini 進行了測試 。
圖片
? 在 Blocksworld 測試數(shù)據(jù)集中,o1-preview 的表現(xiàn)遠(yuǎn)超任何 LLM,正確回答了這些實例中的 97.8%。
? 在 Mystery Blocksworld 中,o1-preview 未能保持這樣的高性能,但仍遠(yuǎn)超以往所有模型,正確回答了 52.8%。
? 在隨機 Mystery Blocksworld 中,盡管準(zhǔn)確率有所下降,仍有37.3%的問題得到了正確解答,這與之前模型測試時的零通過率形成了鮮明對比。
隨機 Mystery Blocksworld是為驗證數(shù)據(jù)污染是否破壞了效果,采用徹底隨機的字符串創(chuàng)建了新的混淆,并以語義對等且明確無誤的PDDL格式重新定義了問題域和具體問題的描述。
2.2 隨著問題規(guī)模增加,o1表現(xiàn)如何?
標(biāo)準(zhǔn)的 LLM 思維鏈提示方法較為脆弱,無法隨著問題規(guī)模穩(wěn)定擴展,也難以誘導(dǎo)通用的算法程序遵循 。
圖片
在一組 110 個更大的 Blocksworld 問題上對模型進行了測試。這組問題的長度范圍在 6 到 20 個塊之間,并且需要 20 到 40 步的最優(yōu)計劃。
沒有任何混淆的情況下,性能從之前報告的 97.8%迅速滑落。實際上,在這 110 個實例中,o1-preview 僅能處理 23.63%,并且大部分的準(zhǔn)確性來自于正確解決需要少于 28 步的問題。雖然這些模型總體令人贊嘆,但這表明它們的性能遠(yuǎn)非穩(wěn)健。
2.3 在無解問題上的性能
在真實場景中的一個例子是網(wǎng)絡(luò)漏洞分析,希望證明對于特定系統(tǒng)不存在攻擊計劃 。LLM 一直難以認(rèn)識到某些問題無法解決,而是自信地編造無意義的答案。
o1 宣稱已經(jīng)開始克服這個問題,并且現(xiàn)在能夠準(zhǔn)確地識別不可解的問題 。
為了系統(tǒng)地測試這一點,通過向原始的 3 到 5 個塊測試集中的每個實例的目標(biāo)狀態(tài)添加一個“on(x,y)”類型的合取,使目標(biāo)無法達(dá)成,從而修改了 100 個實例 。
圖片
? 在 Blocksworld 上:
只有 27%的所有實例被 o1 正確且明確地識別為不可解。
在所有情況的 19%中,模型返回一個點或某種“[空計劃]”標(biāo)記,沒有任何關(guān)于不可解性的解釋或指示。
這些應(yīng)該被認(rèn)為是不正確的,因為“空計劃”只有在目標(biāo)已經(jīng)達(dá)成時才是正確的答案。
在其余 54%的情況下,模型生成了完整的(因此不可能且不正確!
)計劃。
? 在隨機 Mystery Blocksworld 上,這些數(shù)字更糟:
? 16%的情況被正確識別為不可解,5%返回空計劃,其余 79%用完整的(不可能或不滿足目標(biāo)的)計劃作答。
因此,不可解的實例仍然是 LRM 的難題。此外,有時能夠正確注意到不可能的計劃是有代價的:現(xiàn)在模型有時會錯誤地聲稱可解的問題實際上是不可解的。
2.4 成本收益的權(quán)衡
盡管o1-preview可能比LLMs提供更高的精準(zhǔn)度,但它任然不能100%確保規(guī)劃的正確性,其成本效益也尚不明確。
不同于以往模型僅基于輸入和輸出令牌數(shù)量計費,o1的每次調(diào)用費用還包括基于其使用的“推理令牌”數(shù)量的附加費——這些作為推理過程一部分生成的令牌并不向用戶展示,并且以更高的輸出令牌費率計費。
目前,用戶無法控制生成的推理令牌數(shù)量。自這些模型推出不到一周,論文作者在這項基準(zhǔn)測試的o1模型實驗上已經(jīng)累積了1897.55美元的費用!
像Fast Downward這樣的經(jīng)典規(guī)劃器在數(shù)據(jù)集上實現(xiàn)了100%的準(zhǔn)確率,僅用了一小部分的時間、計算和成本。
在個人計算機上運行Fast Downward基本上是免費的,平均每次實例0.265秒,比平均o1時鐘時間快了幾個數(shù)量級。結(jié)果也是可預(yù)測的,并且可以直接擴展到更難的實例。
普通的LLMs通常非常擅長在格式之間轉(zhuǎn)換問題,并且可以與經(jīng)典規(guī)劃器一起使用,成本僅為LRMs的一小部分。
對于沒有簡單的PDDL領(lǐng)域和實例規(guī)范的問題,LLM-Modulo系統(tǒng)可能是一個更安全、更便宜的方法:在循環(huán)中運行一個更小、更快的LLM與一個可靠的驗證器一起,以便組合系統(tǒng)只輸出保證正確的解決方案。
這種LLM-Modulo方法已經(jīng)可以在原始Blocksworld測試集的一個子集上實現(xiàn)82%的準(zhǔn)確率,以及在物流領(lǐng)域?qū)崿F(xiàn)70%的準(zhǔn)確率。
這些后兩種方法提供的準(zhǔn)確性保證在像o1這樣的LRMs中嚴(yán)重缺乏。如果一個通用推理系統(tǒng)繼續(xù)自信地制定錯誤的計劃,那么它就不能被部署在安全關(guān)鍵和非遍歷領(lǐng)域。
o1是一個完全的黑匣子系統(tǒng),甚至比以前的模型更是如此,OpenAI決定不僅要保密架構(gòu)和隱藏推理痕跡,而且要警告甚至禁止任何試圖理解它們內(nèi)部情況的人,這使得可解釋性幾乎是不可能的,并且降低了對系統(tǒng)整體的信任。
? 論文原文: https://arxiv.org/abs/2409.13373
本文轉(zhuǎn)載自??大語言模型論文跟蹤??,作者:HuggingAGI ????
