成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

被神化的o1模型,規(guī)劃能力到底如何?

發(fā)布于 2024-9-27 13:15
瀏覽
0收藏

最近OpenAI推出了新的o1模型,與之前類似檢索器的大語言模型(LLM)不同,o1被稱為推理器模型。o1模型可能是類似于 AlphaGo 的強化學(xué)習(xí)訓(xùn)練系統(tǒng),只不過所生成和評估的“動作”是思維鏈。

依據(jù) OpenAI 發(fā)布該模型的博客:o1模型與過去的大語言模型有所區(qū)別,是一個新系列的大型推理模型,代表了人工智能能力的新水平。所以,OpenAI將模型的計數(shù)器重置為1,命名為OpenAI o1模型。

在o1-preview 和 o1-mini 發(fā)布了一周后,作者在 PlanBench 測試數(shù)據(jù)集上進行了性能測試。

PlanBench 是一套專門用于評估LLM規(guī)劃能力的工具套件。

那么,o1系列模型在規(guī)劃能力上到底表現(xiàn)如何?

1. 傳統(tǒng) LLM 在PlanBench上表現(xiàn)如何?

對于傳統(tǒng)大型語言模型(通過 RLHF 進行微調(diào)的大規(guī)模 Transformer 模型),他們在 PlanBench 上的表現(xiàn)都差強人意,這表明依靠近似檢索通常無法穩(wěn)妥地解決規(guī)劃問題。

被神化的o1模型,規(guī)劃能力到底如何?-AI.x社區(qū)圖片

上表展示了前一代的LLM在Blocksworld和Mystery Blocksworld數(shù)據(jù)集上的表現(xiàn)。

在 Blocksworld 靜態(tài)數(shù)據(jù)集上,表現(xiàn)最好的模型是 LLaMA 3.1 405B,準(zhǔn)確率達(dá)到了62.6%。

但是在Mystery Blocksworld數(shù)據(jù)集上(該數(shù)據(jù)集為600個語義相同但句法混淆的測試數(shù)據(jù)),沒有任何一個模型能達(dá)到5%的準(zhǔn)確率。

2. o1系列模型表現(xiàn)如何?

傳統(tǒng)LLM是通過類似【檢索】的方式生成結(jié)果的,盡管在【System 1】類任務(wù)重表現(xiàn)出色,但是在更加偏向于【System 2】的任務(wù)上,比如:規(guī)劃任務(wù),表現(xiàn)一般。

據(jù)論文作者所知,o1模型是一個底層 LLM(很可能是經(jīng)過修改的 GPT-4o)整合進了一個經(jīng)過強化學(xué)習(xí)訓(xùn)練的系統(tǒng),該系統(tǒng)引導(dǎo)著私有思維鏈推理軌跡的創(chuàng)建、管理與最終選擇。目前大家能了解到的細(xì)節(jié)仍然不多,所以只能對其確切機制進行推測。

本篇論文作者猜測 o1 與 LLM 主要有兩點不同:

? 1、增加了一個強化學(xué)習(xí)的預(yù)訓(xùn)練階段(可能是為了從海量合成數(shù)據(jù)中學(xué)習(xí)不同思維鏈的q值)

? 2、引入了一種新的自適應(yīng)推理過程(或許在選擇特定的思維鏈之前,它會通過類似于展開的方式進一步提煉已學(xué)習(xí)的q值)。

2.1 在靜態(tài)測試數(shù)據(jù)集上評估o1

在靜態(tài)的 PlanBench 測試集上對 o1-preview 和 o1-mini 進行了測試 。

被神化的o1模型,規(guī)劃能力到底如何?-AI.x社區(qū)圖片

? 在 Blocksworld 測試數(shù)據(jù)集中,o1-preview 的表現(xiàn)遠(yuǎn)超任何 LLM,正確回答了這些實例中的 97.8%。

? 在 Mystery Blocksworld 中,o1-preview 未能保持這樣的高性能,但仍遠(yuǎn)超以往所有模型,正確回答了 52.8%。

? 在隨機 Mystery Blocksworld 中,盡管準(zhǔn)確率有所下降,仍有37.3%的問題得到了正確解答,這與之前模型測試時的零通過率形成了鮮明對比。

隨機 Mystery Blocksworld是為驗證數(shù)據(jù)污染是否破壞了效果,采用徹底隨機的字符串創(chuàng)建了新的混淆,并以語義對等且明確無誤的PDDL格式重新定義了問題域和具體問題的描述。

2.2 隨著問題規(guī)模增加,o1表現(xiàn)如何?

標(biāo)準(zhǔn)的 LLM 思維鏈提示方法較為脆弱,無法隨著問題規(guī)模穩(wěn)定擴展,也難以誘導(dǎo)通用的算法程序遵循 。

被神化的o1模型,規(guī)劃能力到底如何?-AI.x社區(qū)圖片

在一組 110 個更大的 Blocksworld 問題上對模型進行了測試。這組問題的長度范圍在 6 到 20 個塊之間,并且需要 20 到 40 步的最優(yōu)計劃。

沒有任何混淆的情況下,性能從之前報告的 97.8%迅速滑落。實際上,在這 110 個實例中,o1-preview 僅能處理 23.63%,并且大部分的準(zhǔn)確性來自于正確解決需要少于 28 步的問題。雖然這些模型總體令人贊嘆,但這表明它們的性能遠(yuǎn)非穩(wěn)健。

2.3 在無解問題上的性能

在真實場景中的一個例子是網(wǎng)絡(luò)漏洞分析,希望證明對于特定系統(tǒng)不存在攻擊計劃 。LLM 一直難以認(rèn)識到某些問題無法解決,而是自信地編造無意義的答案。

o1 宣稱已經(jīng)開始克服這個問題,并且現(xiàn)在能夠準(zhǔn)確地識別不可解的問題 。

為了系統(tǒng)地測試這一點,通過向原始的 3 到 5 個塊測試集中的每個實例的目標(biāo)狀態(tài)添加一個“on(x,y)”類型的合取,使目標(biāo)無法達(dá)成,從而修改了 100 個實例 。

被神化的o1模型,規(guī)劃能力到底如何?-AI.x社區(qū)圖片

? 在 Blocksworld 上:

只有 27%的所有實例被 o1 正確且明確地識別為不可解。

在所有情況的 19%中,模型返回一個點或某種“[空計劃]”標(biāo)記,沒有任何關(guān)于不可解性的解釋或指示。
這些應(yīng)該被認(rèn)為是不正確的,因為“空計劃”只有在目標(biāo)已經(jīng)達(dá)成時才是正確的答案。

在其余 54%的情況下,模型生成了完整的(因此不可能且不正確!
)計劃。

? 在隨機 Mystery Blocksworld 上,這些數(shù)字更糟:

? 16%的情況被正確識別為不可解,5%返回空計劃,其余 79%用完整的(不可能或不滿足目標(biāo)的)計劃作答。

因此,不可解的實例仍然是 LRM 的難題。此外,有時能夠正確注意到不可能的計劃是有代價的:現(xiàn)在模型有時會錯誤地聲稱可解的問題實際上是不可解的。

2.4 成本收益的權(quán)衡

盡管o1-preview可能比LLMs提供更高的精準(zhǔn)度,但它任然不能100%確保規(guī)劃的正確性,其成本效益也尚不明確。

不同于以往模型僅基于輸入和輸出令牌數(shù)量計費,o1的每次調(diào)用費用還包括基于其使用的“推理令牌”數(shù)量的附加費——這些作為推理過程一部分生成的令牌并不向用戶展示,并且以更高的輸出令牌費率計費。

目前,用戶無法控制生成的推理令牌數(shù)量。自這些模型推出不到一周,論文作者在這項基準(zhǔn)測試的o1模型實驗上已經(jīng)累積了1897.55美元的費用!

像Fast Downward這樣的經(jīng)典規(guī)劃器在數(shù)據(jù)集上實現(xiàn)了100%的準(zhǔn)確率,僅用了一小部分的時間、計算和成本。

在個人計算機上運行Fast Downward基本上是免費的,平均每次實例0.265秒,比平均o1時鐘時間快了幾個數(shù)量級。結(jié)果也是可預(yù)測的,并且可以直接擴展到更難的實例。

普通的LLMs通常非常擅長在格式之間轉(zhuǎn)換問題,并且可以與經(jīng)典規(guī)劃器一起使用,成本僅為LRMs的一小部分。

對于沒有簡單的PDDL領(lǐng)域和實例規(guī)范的問題,LLM-Modulo系統(tǒng)可能是一個更安全、更便宜的方法:在循環(huán)中運行一個更小、更快的LLM與一個可靠的驗證器一起,以便組合系統(tǒng)只輸出保證正確的解決方案。

這種LLM-Modulo方法已經(jīng)可以在原始Blocksworld測試集的一個子集上實現(xiàn)82%的準(zhǔn)確率,以及在物流領(lǐng)域?qū)崿F(xiàn)70%的準(zhǔn)確率。

這些后兩種方法提供的準(zhǔn)確性保證在像o1這樣的LRMs中嚴(yán)重缺乏。如果一個通用推理系統(tǒng)繼續(xù)自信地制定錯誤的計劃,那么它就不能被部署在安全關(guān)鍵和非遍歷領(lǐng)域。

o1是一個完全的黑匣子系統(tǒng),甚至比以前的模型更是如此,OpenAI決定不僅要保密架構(gòu)和隱藏推理痕跡,而且要警告甚至禁止任何試圖理解它們內(nèi)部情況的人,這使得可解釋性幾乎是不可能的,并且降低了對系統(tǒng)整體的信任。

? 論文原文: https://arxiv.org/abs/2409.13373

本文轉(zhuǎn)載自??大語言模型論文跟蹤??,作者:HuggingAGI ????

收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 国产精品一区二区av | 亚洲精品视频一区 | 亚洲一区欧美一区 | 四虎影视1304t | 视频在线观看亚洲 | 欧美一区在线视频 | 91av视频| 欧美日韩国产一区二区三区 | www国产成人免费观看视频,深夜成人网 | 国产精品日本一区二区在线播放 | 国产91丝袜在线播放 | 亚洲综合二区 | 午夜电影一区 | 国产人免费人成免费视频 | 久久久久91 | 在线观看a视频 | 日本天天操 | 国产一区二区在线播放 | 午夜一区二区三区在线观看 | 亚洲综合色视频在线观看 | 色综合色综合色综合 | 日韩电影一区 | 国产分类视频 | 欧美xxxx在线 | 欧美一级欧美一级在线播放 | 久久精品视频播放 | 成人午夜精品 | 91婷婷韩国欧美一区二区 | 午夜无码国产理论在线 | 日日操夜夜操天天操 | 欧美456| 亚洲综合一区二区三区 | 国产一区| 婷婷成人在线 | 久久免费国产视频 | 国产精品永久久久久 | 国产成人一区二区三区精 | 亚洲大片 | 在线免费观看a级片 | 做a的各种视频 | 免费黄色片在线观看 |