成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

用語言建模世界:UC伯克利多模態世界模型利用語言預測未來

人工智能 新聞
人工智能長期以來的目標是開發能夠在物理世界中與人類自然交互的智能體。當前的具身智能體可以遵循簡單的低層指令,比如「拿一塊藍色的積木」或者「經過電梯,然后向右轉」。

當前,人與智能體(比如機器人)的交互是非常直接的,你告訴它「拿一塊藍色的積木」,它就會幫你拿過來。但現實世界的很多信息并非那么直接,比如「扳手可以用來擰緊螺母」、「我們的牛奶喝完了」。這些信息不能直接拿來當成指令,但卻蘊含著豐富的世界信息。智能體很難了解這些語言在世界上的含義。

圖片

圖源:谷歌機器人團隊論文「Interactive Language: Talking to Robots in Real Time」。

UC 伯克利 Dynalang 研究的關鍵思想是,我們可以將語言看作是幫助我們更好地對世界進行預測的工具,比如「我們的牛奶喝完了」→打開冰箱時沒有牛奶;「扳手可以用來擰緊螺母」→使用工具時螺母會旋轉。Dynalang 在一個模型中結合了語言模型(LM)和世界模型(WM),使得這種范式變成多模態。研究者認為,將語言生成和行動統一在一個智能體架構中是未來研究的一個令人興奮的方向。

論文概覽

人工智能長期以來的目標是開發能夠在物理世界中與人類自然交互的智能體。當前的具身智能體可以遵循簡單的低層指令,比如「拿一塊藍色的積木」或者「經過電梯,然后向右轉」。

然而,要實現自由交流的互動智能體,就需要理解人們在「此時此地」之外使用語言的完整方式,包括:傳遞知識,比如「左上角的按鈕是關掉電視的」;提供情境信息,如「我們的牛奶喝完了」;以及協同,比如跟別人說「我已經吸過客廳了」。我們在文本中閱讀的很多內容或者從他人口中聽到的信息都在傳遞有關世界的知識,無論是關于世界如何運行還是關于當前世界狀態的知識。

我們如何使智能體能夠使用多樣化的語言呢?一種訓練基于語言的智能體解決任務的方法是強化學習(RL)。然而,目前的基于語言的 RL 方法主要是學習從特定任務指令生成行動,例如將目標描述「拿起藍色的積木」作為輸入,輸出一系列運動控制。

然而,當考慮到自然語言在現實世界中所服務的多樣功能時,直接將語言映射到最優行動是一個具有挑戰性的學習問題。以「我把碗放好了」為例:如果任務是清洗,智能體應該繼續進行下一個清洗步驟;而如果是晚餐服務,智能體應該去取碗。當語言不涉及任務時,它只與智能體應該采取的最優行動弱相關。將語言映射到行動,尤其是僅使用任務獎勵,對于學會使用多樣化語言輸入完成任務來說是一個弱學習信號。

不同的是,UC 伯克利的研究者提出,智能體使用語言的一種統一方法是幫助它們預測未來。前面提到的語句「我把碗放好了」有助于智能體更好地預測未來的觀察結果(即,如果它采取行動打開櫥柜,它將在那里看到碗)。

我們遇到的很多語言可以通過這種方式與視覺體驗聯系起來。先前的知識,比如「扳手可以用來擰緊螺母」,幫助智能體預測環境變化。諸如「包裹在外面」的陳述有助于智能體預測未來的觀察結果。這個框架還將標準指令遵循歸入預測范疇:指令幫助智能體預測自己將如何受到獎勵。類似于下一個 token 預測允許語言模型形成關于世界知識的內部表示,研究者假設預測未來的表示為智能體理解語言以及它與世界的關系提供了豐富的學習信號。

基于此,他們提出了 Dynalang,一種從在線經驗中學習語言和圖像世界模型,并利用該模型學習如何行動的智能體。

Dynalang 將學習用語言對世界建模(帶有預測目標的監督學習)與學習根據該模型采取行動(帶有任務獎勵的強化學習)分離開來。該世界模型接收視覺和文本輸入作為觀察模態,并將它們壓縮到潛在空間。研究者通過在線收集的經驗訓練世界模型,使其能夠預測未來的潛在表示,同時智能體在環境中執行任務。他們通過將世界模型的潛在表示作為輸入,訓練策略來采取最大化任務獎勵的行動。由于世界建模與行動分離,Dynalang 可以在沒有行動或任務獎勵的單模態數據(僅文本或僅視頻數據)上進行預訓練。

此外,他們的框架還可以統一語言生成:智能體的感知可以影響智能體的語言模型(即其對未來 token 的預測),使其能夠通過在動作空間輸出語言來描述環境。

論文鏈接:https://arxiv.org/pdf/2308.01399.pdf

項目主頁:https://dynalang.github.io/

代碼鏈接:https://github.com/jlin816/dynalang

研究者在具有不同類型語言上下文的多樣化環境中對 Dynalang 進行了評估。在一個多任務家庭清潔環境中,Dynalang 學會利用關于未來觀察、環境動態和修正的語言提示,更高效地完成任務。在 Messenger 基準測試中,Dynalang 可以閱讀游戲手冊來應對最具挑戰性的游戲階段,優于特定任務的架構。在視覺 - 語言導航中,研究者證明 Dynalang 可以學會在視覺和語言復雜的環境中遵循指令。

圖片

Dynalang 學會使用語言來預測未來的(文本 + 圖像)觀察結果和獎勵,從而幫助解決任務。在這里,研究者展示了在 HomeGrid 環境中真實的模型預測結果。智能體在接收環境中的視頻和語言觀察的同時,探索了各種房間。根據過去的文本「瓶子在客廳」,在時間步 61-65,智能體預測將在客廳的最后一個角落看到瓶子。根據描述任務的文本「拿起瓶子」,智能體預測將因為拿起瓶子而獲得獎勵。智能體還可以預測未來的文本觀察:在時間步 30,給定前半句「盤子在」,并觀察到櫥柜上的盤子,模型預測下一個最可能的 token 是「廚房」。

圖片

研究者考慮了一系列具有視覺輸入和多樣化語言的環境。HomeGrid 是一個具有指令和多樣化提示的具有挑戰性的視覺網格世界。Messenger 是一個具有符號輸入的基準測試,包含數百個人工編寫的游戲手冊,需要進行多次推理。Habitat 是一個模擬逼真的 3D 家居環境,用于視覺 - 語言導航,在其中智能體必須在數百個場景中定位物體。LangRoom 是一個簡單的視覺網格世界,具有部分可觀察性,智能體需要同時生成動作和語言。

詳解 Dynalang 工作原理

使用語言來理解世界很自然地符合世界建模范式。這項工作構建在 DreamerV3 的基礎之上,DreamerV3 是一種基于模型的強化學習智能體。Dynalang 不斷地從經驗數據中學習,這些數據是智能體在環境中執行任務時收集到的。

如下圖(左)所示,在每個時間步,世界模型將文本和圖像壓縮成潛在表示。通過這個表示,模型被訓練用于重建原始觀察結果、預測獎勵,并預測下一個時間步的表示。直觀地說,世界模型根據它在文本中讀到的內容,學習它應該期望在世界中看到什么。

如下圖(右)所示,Dynalang 通過在壓縮的世界模型表示之上訓練策略網絡來選擇行動。它通過來自世界模型的想象的模擬結果進行訓練,并學會采取能夠最大化預測獎勵的行動。

與之前逐句或逐段消耗文本的多模態模型不同,研究者設計的 Dynalang 將視頻和文本作為一個統一的序列來建模,一次處理一幀圖像和一個文本 token。直觀來說,這類似于人類在現實世界中接收輸入的方式 —— 作為一個單一的多模態流,人需要時間來聆聽語言。將所有內容建模為一個序列使得模型可以像語言模型一樣在文本數據上進行預訓練,并提高強化學習的性能。

HomeGrid 中的語言提示

研究者引入了 HomeGrid 來評估一個環境中的智能體。在這個環境中,智能體除了任務指令外還會收到語言提示。

HomeGrid 是一個具有指令和多樣化提示的具有挑戰性的視覺網格世界。HomeGrid 中的提示模擬了智能體可能從人類那里學到或從文本中獲取的知識,提供了對解決任務有幫助但不是必需的信息:

未來觀察:描述了智能體未來可能觀察到的情況,比如「盤子在廚房里」。

圖片

Correction:提供了基于智能體當前行為的交互式反饋,比如「轉身」。

Dynamics:描述了環境的動態變化,比如「踩踏板打開垃圾桶」。

圖片

HomeGrid 環境將與代碼一起發布,以鼓勵大家進一步在這個方向上進行研究。

盡管智能體沒有明確地接受有關文本對應于什么觀察結果的明確監督,但 Dynalang 通過未來預測目標學會了將各種類型的語言與環境相聯系。Dynalang 的性能優于基于語言的 IMPALA 和 R2D2,這兩種方法在使用不同類型的語言上遇到困難,通常在超出指令范圍的語言任務上表現更差。

Messenger 中的游戲手冊

研究者在 Messenger 游戲環境中進行評估,以測試智能體如何從更長、更復雜的文本中學習,這需要對文本和視覺觀察進行多次推理。智能體必須對描述每個任務動態的文本手冊進行推理,并將其與環境中實體的觀察結果結合起來,以確定哪些實體應該接收消息,哪些應該避免。Dynalang 的表現優于 IMPALA、R2D2 以及使用專門架構對文本和觀察進行推理的任務特定 EMMA 基線,特別是在最困難的第三階段。

圖片

圖片

圖片

Habitat 中的指令遵循

研究者還展示了 Dynalang 能夠處理逼真的視覺觀察,并在 Habitat 中執行指令跟隨。智能體必須遵循自然語言指令,在家庭逼真掃描中導航到目標位置。在 Dynalang 中,指令遵循可以統一在相同的預測框架中,將其視為未來獎勵預測。

圖片

圖片

圖片

圖片

基于 LangRoom 的語言生成

就像語言可以影響智能體對將要看到的事物的預測一樣,智能體觀察到的內容也會影響它對將要聽到的語言的期望(例如,關于它所看到的內容的真實陳述)。通過在 LangRoom 中將語言輸出到動作空間,研究者展示了 Dynalang 可以生成與環境相關聯的語言,從而進行具身問答。LangRoom 是一個簡單的視覺網格世界,具有部分可觀察性,智能體需要在其中產生運動動作和語言。

圖片


圖片

文本預訓練

由于使用語言進行世界建模與基于世界模型的行動學習解耦,Dynalang 可以使用離線數據進行預訓練,而無需行動或獎勵標簽。這種能力使得 Dynalang 能夠從大規模的離線數據集中受益,全部都在單一的模型架構內實現。研究者使用僅包含文本數據的數據對 Dynalang 進行預訓練,從零開始學習 token 嵌入。在通用文本數據(TinyStories,2M 個短故事)上預訓練模型,提高了模型在 Messenger 上的下游強化學習任務表現,超過了使用預訓練的 T5 嵌入的結果。

圖片

研究者表示,盡管他們的工作專注于用于在世界中行動的語言理解,但它也可以像一個僅文本語言模型一樣從世界模型中生成文本。研究者在潛在空間中對預訓練的 TinyStories 模型進行模擬的抽樣,然后在每個時間步驟從表示中解碼 token 觀察。盡管生成的文本質量仍然低于當前語言模型的水平,但模型生成的文本令人驚訝地連貫。他們認為將語言生成和行動統一在一個智能體架構中是未來研究的一個令人興奮的方向。

圖片

責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-08-15 14:18:19

智能研究

2024-03-04 08:15:00

2024-12-02 08:20:00

2023-05-04 14:55:02

模型AI

2023-12-16 09:49:18

2024-04-07 00:45:00

開源模型

2023-08-21 08:00:00

人工智能大型語言模型

2023-09-25 12:42:00

AI數據

2023-04-07 09:28:31

模型訓練

2025-04-18 08:42:52

模型推理AI

2023-10-12 16:37:36

模型學習

2025-01-22 15:21:00

2024-07-31 15:38:00

2025-04-30 09:09:00

2024-11-26 13:40:00

2022-12-23 10:15:44

模型AI

2023-04-04 13:17:00

GPUCMU開源

2023-11-14 07:47:42

IGN擴散模型

2025-05-06 15:31:55

智能模型AI

2022-07-15 14:57:43

AI語言
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩a在线 | 国产剧情一区 | 久久久天天| 久久久精品网 | 日韩精品一区二区三区视频播放 | 国产亚洲精品久久19p | 国产一区二区三区久久久久久久久 | 亚洲有码转帖 | 色综合一区 | 成人久久18免费网站图片 | 99精品视频在线 | 中文字幕 在线观看 | 欧美午夜一区 | www.狠狠干 | 国产精品一区二 | 久久成人一区 | 久久久久国产精品午夜一区 | 久久大| 国产成人一区二区三区 | 亚洲成人免费网址 | 一级黄色av电影 | 欧美日韩亚洲一区 | 亚洲国产精品网站 | 免费观看一级毛片视频 | 欧美一区永久视频免费观看 | 一区二区视频在线观看 | 久久精品一区二区三区四区 | 久久新视频 | 国产高清在线精品一区二区三区 | 岛国精品 | a视频在线播放 | 日韩中文字幕2019 | 成人精品一区 | 色伊人 | 国产不卡在线观看 | 黄视频欧美 | 精品久久久久久久人人人人传媒 | 一区二区三区四区在线视频 | 久久久一区二区三区 | 在线观看亚洲精品视频 | 五月婷婷激情网 |