成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AI大佬曼寧轉(zhuǎn)贊,MetaGPT團(tuán)隊(duì)首提「Atom of Thoughts」,原子化思考讓4o-mini暴打推理模型?

人工智能 新聞
大語(yǔ)言模型(LLM)近年來(lái)憑借訓(xùn)練時(shí)擴(kuò)展(train-time scaling)取得了顯著性能提升。

AoT 作者團(tuán)隊(duì)來(lái)自 MetaGPT 開源社區(qū)。第一作者為香港科技大學(xué)(廣州)的滕楓蔚,通訊作者為 DeepWisdom 創(chuàng)始人兼 CEO 吳承霖。團(tuán)隊(duì)還包括 DeepWisdom 研究員于兆洋、中國(guó)人民大學(xué)的石泉、香港科技大學(xué)(廣州)的博士生張佳釔和助理教授駱昱宇。

圖片


  • 論文標(biāo)題:Atom of Thoughts for Markov LLM Test-Time Scaling
  • 論文地址:https://arxiv.org/abs/2502.12018
  • 項(xiàng)目地址:https://github.com/qixucen/atom

從 “長(zhǎng)鏈推理” 到 “原子思維”:AoT 的誕生

大語(yǔ)言模型(LLM)近年來(lái)憑借訓(xùn)練時(shí)擴(kuò)展(train-time scaling)取得了顯著性能提升。然而,隨著模型規(guī)模和數(shù)據(jù)量的瓶頸顯現(xiàn),測(cè)試時(shí)擴(kuò)展(test-time scaling)成為進(jìn)一步釋放潛力的新方向。然而,無(wú)論是思維鏈(CoT)、思維樹(ToT)等提示策略和推理框架,還是 OpenAI o1/o3 和 DeepSeek-R1 等推理模型,在推理時(shí)都過度依賴完整歷史信息,導(dǎo)致計(jì)算資源浪費(fèi),同時(shí)冗余信息干擾有效推理。

具體來(lái)說(shuō),基于鏈的方法每進(jìn)行一步推理,都需回顧已有的完整鏈條;基于樹的方法則需要追蹤祖先和同層節(jié)點(diǎn);基于圖的方法允許節(jié)點(diǎn)任意連接,進(jìn)一步加重了歷史信息依賴,導(dǎo)致計(jì)算復(fù)雜度上升。隨著推理規(guī)模擴(kuò)大,特別是以 OpenAI 的 o1/o3 和 DeepSeek-R1 為代表的推理模型,飆升的計(jì)算資源需求用于處理不斷積累的歷史信息。相比之下,人類推理傾向于將復(fù)雜問題拆分為獨(dú)立的子問題,逐步解決并整合后續(xù)推理所需的信息,而不執(zhí)著于保留每步細(xì)節(jié)。這種 “原子化思考” 啟發(fā)了 AoT 的設(shè)計(jì),使其專注當(dāng)前狀態(tài)的推理,摒棄歷史依賴。

基于此觀察,研究人員推出了 Atom of Thoughts(AoT),AoT 的核心洞察是:復(fù)雜推理可通過一系列輕量的 “原子問題” 實(shí)現(xiàn),這些問題的執(zhí)行僅依賴自身,擺脫歷史信息依賴。AoT 將推理過程構(gòu)建為馬爾可夫過程(Markov process),通過不斷進(jìn)行狀態(tài)轉(zhuǎn)移,逐步簡(jiǎn)化問題并始終保持和原問題等價(jià),最終求解輕量的原子問題來(lái)回答原問題。

圖片

AoT 論文 X 平臺(tái)獲得近 40 萬(wàn)瀏覽量,并獲 NLP 巨匠、2024 馮諾伊曼獎(jiǎng)得主 Christopher Manning 轉(zhuǎn)發(fā)。

AoT 如何推理?

由拆解收縮雙階段組成的馬爾可夫轉(zhuǎn)移過程

圖片

在馬爾可夫過程中,狀態(tài)從原問題 Q0 初始化,問題所需的推理時(shí)間可通過拆解生成的 DAG 結(jié)構(gòu)復(fù)雜度反映。隨著拆解和收縮迭代,當(dāng)前狀態(tài) Qi 的推理時(shí)間逐步降低。

AoT 的一次狀態(tài)轉(zhuǎn)移由兩個(gè)核心步驟組成:拆解(Decomposition)和收縮(Contraction)。這兩個(gè)步驟共同完成一次狀態(tài)轉(zhuǎn)換,生成一個(gè)簡(jiǎn)化的問題作為下一輪拆解與收縮的 “原問題”。這一過程不斷迭代,直到達(dá)到最大次數(shù)限制 —— 該限制由首次拆解生成的圖的深度確定,以避免無(wú)限循環(huán)。

1. 拆解(Decomposition)

AoT 首先將當(dāng)前問題分解為一個(gè)臨時(shí)的、基于依賴關(guān)系的有向無(wú)環(huán)圖(DAG)。在這個(gè) DAG 中,節(jié)點(diǎn)代表子問題,邊則表示它們之間的依賴關(guān)系。臨時(shí) DAG 提供的結(jié)構(gòu)信息為后續(xù)收縮階段奠定了基礎(chǔ),幫助消除因復(fù)雜結(jié)構(gòu)帶來(lái)的歷史信息負(fù)擔(dān)。

2. 收縮(Contraction)

拆解完成后,DAG 以規(guī)則化的方式區(qū)分子問題:無(wú)入邊的節(jié)點(diǎn)被定義為獨(dú)立子問題,有入邊的節(jié)點(diǎn)被定義為依賴子問題。獨(dú)立子問題的信息轉(zhuǎn)化為已知條件,依賴子問題的描述則被整合為一個(gè)更簡(jiǎn)潔的獨(dú)立問題,從而形成新的原子狀態(tài)。這一狀態(tài)的答案與前一狀態(tài)的問題保持等價(jià)。由于馬爾可夫過程從原問題初始化,所有狀態(tài)均與原問題維持等價(jià)關(guān)系。

AoT 馬爾可夫式的狀態(tài)轉(zhuǎn)移和原子化的狀態(tài)表示極大地消除了對(duì)歷史信息的依賴,將計(jì)算資源聚焦于當(dāng)前的原子問題,提高推理的穩(wěn)健性。

原子性帶來(lái)即插即用

兼容一切框架和模型

圖片

主實(shí)驗(yàn)結(jié)果,其中評(píng)估了三個(gè)變體:基礎(chǔ)版本(AoT),作為插件與 FoT 集成的版本(AoT (d=1)+FoT (n=2)),以及一個(gè)計(jì)算密集型版本(AoT?)

AoT 不僅是一個(gè)獨(dú)立的推理框架,更是一個(gè)強(qiáng)大的插件。其每一次狀態(tài)轉(zhuǎn)移得到的原子狀態(tài)中的問題都可以無(wú)縫嵌入現(xiàn)有的推理手段,無(wú)論是提示策略、推理框架,代理工作流還是多智能體代理系統(tǒng),AoT 都能通過預(yù)處理簡(jiǎn)化輸入問題,同時(shí)保持答案等價(jià)性,來(lái)優(yōu)化后續(xù)推理效率和效果。

圖片

在 MATH 數(shù)據(jù)集上的性能比較。綠色線條顯示 FoT 在不同樹數(shù)(2^k,k=0,1,2,…)下 scaling 的情況,而灰色趨勢(shì)線(代表其他基線方法)則共同展示了性能提升與計(jì)算成本之間的權(quán)衡。AoT(d=1)結(jié)合 FoT(n=2)在保持較低計(jì)算需求的同時(shí),達(dá)到了稍優(yōu)于 FoT(n=8)的性能。

AoT 的原子性設(shè)計(jì)天然契合多跳推理場(chǎng)景的需求。QwQ-32B-Preview、DeepSeek-R1 和 o3-mini 等模型通過延長(zhǎng)思維鏈展現(xiàn)出強(qiáng)大的推理能力。例如以 gpt-4o-mini 作為執(zhí)行模型的 AFlow 在多跳任務(wù)中仍與 o3-mini 的直接求解存在差距。然而,AoT 通過原子化分解,使得即便僅以 gpt-4o-mini 這種短思維鏈模型作為推理基座,也能在性能上超越這些強(qiáng)大的長(zhǎng)思維鏈模型。更進(jìn)一步,當(dāng) o3-mini 被用作 AoT 的推理基座時(shí),原子性設(shè)計(jì)的優(yōu)勢(shì)得以充分發(fā)揮,帶來(lái)更加顯著的性能提升。

圖片

多跳問答任務(wù)中推理模型性能比較

開源與社區(qū)

圖片

AoT 延續(xù)了 MetaGPT 社區(qū)的開源精神,代碼已公開于 GitHub。歡迎開發(fā)者與研究者嘗試 AoT,無(wú)論是獨(dú)立使用還是集成到現(xiàn)有方法,并持續(xù)關(guān)注后續(xù)研究和功能更新。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2025-04-23 08:30:05

2025-04-18 10:36:42

2024-12-24 16:15:04

2024-09-24 11:01:03

2025-02-08 17:00:11

2025-05-28 02:40:00

AdaptThink推理模型AI

2024-10-10 13:01:43

2025-05-08 16:45:32

開源Phi-4推理模型

2025-06-08 14:15:42

2025-04-17 06:10:57

2025-04-18 08:42:52

模型推理AI

2025-01-20 19:52:50

2025-04-17 09:02:00

2025-02-14 11:18:57

2025-01-15 13:01:07

2025-03-05 00:22:00

2025-05-13 08:24:14

2024-12-26 07:10:00

2025-04-15 09:00:00

模型推理AI

2025-01-02 12:48:36

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 午夜影院 | 国产伊人精品 | av电影手机版 | 亚洲精品九九 | 天堂成人国产精品一区 | 岛国av免费看 | 日韩视频在线播放 | 在线免费观看成人 | 日韩综合一区 | 一区二区三区亚洲视频 | 日本不卡一区二区 | 国产99久久 | 亚洲一区在线免费观看 | 国产视频综合 | 久久91视频| 污书屋 | 国产一级在线 | 99热这里只有精品8 激情毛片 | 欧美一二三| 亚洲女人天堂成人av在线 | 亚洲国产成人久久久 | 少妇久久久久 | 久久久久久久91 | 国产福利91精品 | www.三级 | 中文字幕一区二区三区不卡 | 欧美特级黄色 | 久久一视频 | 久久免费精品 | 国产成人99久久亚洲综合精品 | 国产情品 | 精品国模一区二区三区欧美 | 精品免费视频一区二区 | 国产真实精品久久二三区 | 一区二区高清在线观看 | 午夜精品在线 | 香蕉久久久久久 | 欧美一区二区大片 | 网站黄色在线 | 日本a视频 | 91在线观看 |