成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

補齊Transformer規劃短板,田淵棟團隊的Searchformer火了

人工智能 新聞
為了提升 Transformer 的推理和規劃性能,近些年研究社區也提出了一些方法。一種最常見且有效的方法是模擬人類的思考過程:先生成中間「思維」,然后再輸出響應。

最近幾年,基于 Transformer 的架構在多種任務上都表現卓越,吸引了世界的矚目。使用這類架構搭配大量數據,得到的大型語言模型(LLM)等模型可以很好地泛化用于真實世界用例。

盡管有如此成功,但基于 Transformer 的架構和 LLM 依然難以處理規劃和推理任務。之前已有研究證明 LLM 難以應對多步規劃任務或高階推理任務。

為了提升 Transformer 的推理和規劃性能,近些年研究社區也提出了一些方法。一種最常見且有效的方法是模擬人類的思考過程:先生成中間「思維」,然后再輸出響應。比如思維鏈(CoT)提示法就是鼓勵模型預測中間步驟,進行按步驟的「思考」。思維樹(ToT)則使用了分支策略和評判方法,讓模型生成多個不同的思維路徑,然后從中選出最佳路徑。盡管這些技術通常是有效的,但也有研究表明,在很多案例中,這些方法會讓模型的性能下降,原因包括自我強制(self-enforcing)。

另一方面,在一個數據集上有效的技術可能無法很好地處理其它數據集,原因可能包括所涉及的推理類型發生了變化,比如從空間推理變成了數學推理或常識推理。

相較之下,傳統的符號式規劃和搜索技術卻能表現出很好的推理能力。此外,這些傳統方法計算得到的解決方案通常有形式上的保證,因為符號規劃算法通常遵循明確定義的基于規則的搜索過程。

為了讓 Transformer 具備復雜推理能力,Meta FAIR 田淵棟團隊近日提出了 Searchformer。


  • 論文標題:Beyond A?: Better Planning with Transformers via Search Dynamics Bootstrapping
  • 論文地址:https://arxiv.org/pdf/2402.14083.pdf

Searchformer 是一種 Transformer 模型,但針對迷宮導航和推箱子等多步規劃任務,它卻能計算出最優規劃并且所用搜索步驟數也能遠少于 A? 搜索等符號規劃算法。

為了做到這一點,該團隊提出了一種新方法:搜索動態引導(search dynamics bootstrapping)。該方法首先是訓練一個 Transformer 模型來模仿 A? 的搜索過程(如圖 1 所示,然后對其進行微調,使其能用更少的搜索步數找到最優規劃。

更詳細地說,第一步,訓練一個模仿 A? 搜索的 Transformer 模型。這里,該團隊的做法是針對隨機生成的規劃任務實例運行 A* 搜索。在執行 A? 時,該團隊會記錄執行的計算和最優規劃并將其整理成詞序列,即 token。這樣一來,所得到的訓練數據集就包含了 A? 的執行軌跡并編碼了有關 A? 本身的搜索動態的信息。然后,訓練一個 Transformer 模型,讓其能針對任意規劃任務沿最優規劃生成這些 token 序列。

第二步,使用專家迭代(expert iteration)方法進一步提升使用上述經過搜索增強的序列(包含 A? 的執行軌跡)訓練的 Searchformer。專家迭代方法可讓 Transformer 憑借更少的搜索步驟生成最優解。這個過程會得到一種神經規劃算法,其隱式地編碼在該 Transformer 的網絡權重之中,并且它有很高的概率以少于 A? 搜索的搜索步數找到最優規劃。比如說,在執行推箱子任務時,新模型能解答 93.7% 的測試任務,同時搜索步數比 A? 搜索平均少 26.8%。

該團隊表示:這為 Transformer 超越傳統符號規劃算法鋪平了道路。

實驗

為了更好地理解訓練數據和模型參數量對所得模型性能的影響,他們進行了一些消融研究。

他們使用了兩類數據集訓練模型:一種的 token 序列中只包含解(solution-only,其中只有任務描述和最終規劃);另一種則是搜索增強型序列(search-augmented,其中包含任務描述、搜索樹動態和最終規劃)。

實驗中,該團隊使用了 A? 搜索的一種確定性和非確定性變體來生成每個序列數據集。

迷宮導航

在第一個實驗中,該團隊訓練了一組編碼器 - 解碼器 Transformer 模型來預測 30×30 迷宮中的最優路徑。

圖 4 表明,通過預測中間計算步驟,可在數據量少時獲得更穩健的性能表現。

圖片

圖 5 給出了僅使用解訓練的模型的性能。

圖 6 展示了任務難度對每個模型的性能的影響。

整體而言,盡管當使用的訓練數據集足夠大和足夠多樣化時,僅使用解訓練的模型也能預測得到最優規劃,但當數據量少時,經過搜索增強的模型的表現明顯好得多,并且也能更好地擴展用于更困難的任務。

推箱子

圖片

為了測試能否在不同且更復雜的任務(具有不同的 token 化模式)上得到類似的結果,該團隊還生成了一個推箱子的規劃數據集進行測試。

圖 7 展示了每種模型針對每個測試任務生成正確規劃的概率。

可以看到,和上一個實驗一樣,通過使用執行軌跡進行訓練,搜索增強型模型的表現優于僅使用解訓練的模型。

Searchformer:通過引導方法提升搜索動態

最后一個實驗,該團隊研究了搜索增強型模型可以如何迭代提升,從而憑借更少的搜索步數計算出最優規劃。這里的目標是在縮短搜索軌跡長度的同時依然得到最優解。

圖 8 表明,新提出的搜索動態引導方法能夠迭代式地縮短 Searchformer 模型生成的序列的長度。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-10-16 13:50:00

模型AI

2024-12-12 09:00:00

2024-12-19 09:48:07

2023-06-12 09:57:22

AIChatGPT

2023-03-17 08:28:17

GPT-4AI

2024-10-28 08:50:00

2025-02-17 09:30:00

AI訓練模型

2022-05-06 07:31:01

useEventReactHook

2023-12-07 06:51:18

AI模型

2024-10-17 14:10:00

模型訓練

2023-06-30 09:49:23

模型Meta

2023-08-04 13:42:41

2023-06-28 18:10:27

羊駝家族大模型集體進化

2021-10-28 15:41:07

計算機AI 技術

2020-09-22 09:54:19

谷歌Android開發者

2025-06-20 08:47:00

量子計算AI模型

2019-04-25 10:20:24

Transformer神經網絡模型

2022-12-25 13:46:37

生成器

2024-02-27 11:46:40

2024-03-08 12:35:41

模型數據
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品日韩在线 | 成人精品一区二区 | 在线色网| 久久国产精品-国产精品 | 国产一区二区三区四区hd | 欧美阿v | 国产精品久久久久久久久婷婷 | 91成人精品 | 国产精品久久精品 | 国产国拍亚洲精品av | 99久久99 | 日韩av成人 | 99热播精品 | 福利一区二区在线 | 亚洲一区中文字幕 | 成人免费福利视频 | 精品无码久久久久久国产 | 久久久久网站 | 91精品观看| 亚洲在线免费 | 欧美激情精品久久久久久变态 | 中文字幕在线一区二区三区 | 天天插日日操 | 国产一区二区在线免费 | 香蕉久久久久久 | 国产精品成人av | 欧美一区二区免费电影 | 久久天堂 | 日韩精品一二三区 | 欧美成人一区二免费视频软件 | 久久久久国产一区二区 | 成人免费视频 | 日本成人中文字幕在线观看 | 久久久国产视频 | 欧美日韩国产三级 | japanhd成人 | av网站免费| 亚洲国产成人精品女人久久久 | 超碰日韩| 国产精品久久久久久久久久免费看 | 免费视频一区二区 |