成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

李飛飛「具身智能」新成果!機器人接入大模型直接聽懂人話,0預訓練就能完成復雜指令

人工智能 新聞
李飛飛認為,具身智能不單指人形機器人,任何能在空間中移動的有形智能機器都是人工智能的一種形式。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

李飛飛團隊具身智能最新成果來了:

大模型接入機器人,把復雜指令轉化成具體行動規劃,無需額外數據和訓練。

圖片

從此,人類可以很隨意地用自然語言給機器人下達指令,如:

打開上面的抽屜,小心花瓶!

圖片圖片

大語言模型+視覺語言模型就能從3D空間中分析出目標和需要繞過的障礙,幫助機器人做行動規劃。

然后重點來了, 真實世界中的機器人在未經“培訓”的情況下,就能直接執行這個任務。

圖片圖片

新方法實現了零樣本的日常操作任務軌跡合成,也就是機器人從沒見過的任務也能一次執行,連給他做個示范都不需要。

可操作的物體也是開放的,不用事先劃定范圍,開瓶子、按開關、拔充電線都能完成。

圖片圖片

目前項目主頁和論文都已上線,代碼即將推出,并且已經引起學術界廣泛興趣。

圖片圖片

一位前微軟研究員評價到:這項研究走在了人工智能系統最重要和最復雜的前沿。

圖片圖片

具體到機器人研究界也有同行表示:給運動規劃領域開辟了新世界。

還有本來沒看到AI危險性的人,因為這項AI結合機器人的研究而改變看法。

機器人如何直接聽懂人話?

李飛飛團隊將該系統命名為VoxPoser,如下圖所示,它的原理非常簡單。

圖片圖片

首先,給定環境信息(用相機采集RGB-D圖像)和我們要執行的自然語言指令。

接著,LLM(大語言模型)根據這些內容編寫代碼,所生成代碼與VLM(視覺語言模型)進行交互,指導系統生成相應的操作指示地圖,即3D Value Map。

圖片

所謂3D Value Map,它是Affordance Map和Constraint Map的總稱,既標記了“在哪里行動”,也標記了“如何行動”。

圖片圖片

如此一來,再搬出動作規劃器,將生成的3D地圖作為其目標函數,便能夠合成最終要執行的操作軌跡了。

而從這個過程我們可以看到,相比傳統方法需要進行額外的預訓練,這個方法用大模型指導機器人如何與環境進行交互,所以直接解決了機器人訓練數據稀缺的問題。

更進一步,正是由于這個特點,它也實現了零樣本能力,只要掌握了以上基本流程,就能hold任何給定任務。

在具體實現中,作者將VoxPoser的思路轉化為一個優化問題,即下面這樣一個復雜的公式:

圖片圖片

它考慮到了人類下達的指令可能范圍很大,并且需要上下文理解,于是將指令拆解成很多子任務,比如開頭第一個示例就由“抓住抽屜把手”和“拉開抽屜”組成。

VoxPoser要實現的就是優化每一個子任務,獲得一系列機器人軌跡,最終最小化總的工作量和工作時間。

而在用LLM和VLM將語言指令映射為3D地圖的過程中,系統考慮到語言可以傳達豐富的語義空間,便利用“感興趣的實體(entity of interest)”來引導機器人進行操作,也就是通過3DValue Map中標記的值來反應哪個物體是對它具有“吸引力”的,那些物體是具有“排斥性”。

圖片圖片

還是以開頭的例子舉??,抽屜就是“吸引”的,花瓶是“排斥”的。

當然,這些值如何生成,就靠大語言模型的理解能力了。

而在最后的軌跡合成過程中,由于語言模型的輸出在整個任務中保持不變,所以我們可以通過緩存其輸出,并使用閉環視覺反饋重新評估生成的代碼,從而在遇到干擾時快速進行重新規劃。

因此,VoxPoser有著很強的抗干擾能力。

圖片

△ 將廢紙放進藍色托盤

以下分別是VoxPoser在真實和模擬環境中的表現(衡量指標為平均成功率)

圖片圖片

可以看到,無論是哪種環境哪種情況(有無干擾、指令是否可見),它都顯著高于基于原語的基線任務。

最后,作者還驚喜地發現,VoxPoser產生4個“涌現能力”

(1)評估物理特性,比如給定兩個質量未知的方塊,讓機器人使用工具進行物理實驗,確定哪個塊更重;

(2)行為常識推理,比如在擺餐具的任務中,告訴機器人“我是左撇子”,它就能通過上下文理解其含義;

(3)細粒度校正,比如執行“給茶壺蓋上蓋子”這種精度要求較高的任務時,我們可以向機器人發出“你偏離了1厘米”等精確指令來校正它的操作;

(4)基于視覺的多步操作,比如叫機器人將抽屜精準地打開成一半,由于沒有對象模型導致的信息不足可能讓機器人無法執行這樣的任務,但VoxPoser可以根據視覺反饋提出多步操作策略,即首先完全打開抽屜同時記錄手柄位移,然后將其推回至中點就可以滿足要求了。

李飛飛:計算機視覺的3顆北極星

大約一年前,李飛飛在美國文理學會會刊上撰文,指出計算機視覺發展的三個方向:

  • 具身智能(Embodied AI)
  • 視覺推理(Visual Reasoning)
  • 場景理解(Scene Understanding)

李飛飛認為,具身智能不單指人形機器人,任何能在空間中移動的有形智能機器都是人工智能的一種形式。

正如ImageNet旨在表示廣泛且多樣化的現實世界圖像一樣,具身智能研究也需要解決復雜多樣的人類任務,從疊衣服到探索新城市。

遵循指令執行這些任務需要視覺,但需要的不僅僅是視覺,也需要視覺推理理解場景中的三維關系。

最后機器還要做到理解場景中的人,包括人類意圖和社會關系。比如看到一個人打開冰箱能判斷出他餓了,或者看到一個小孩坐在大人腿上能判斷出他們是親子關系。

機器人結合大模型可能正是解決這些問題的一個途徑。

圖片圖片

除李飛飛外,參與本次研究的還有清華姚班校友吳佳俊,博士畢業于MIT,現為斯坦福大學助理教授。

圖片圖片

論文一作Wenlong Huang現為斯坦福博士生,在谷歌實習期間參與了PaLM-E研究。

圖片圖片

論文地址:https://voxposer.github.io/voxposer.pdf
項目主頁:https://voxposer.github.io/

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-11-06 11:29:02

機器人視覺

2023-12-23 23:16:36

機器人模型

2024-12-19 14:44:22

2023-12-29 09:16:36

模型訓練

2025-05-28 13:25:14

2024-11-04 00:24:56

2025-01-10 09:30:00

2025-03-10 13:31:28

2022-06-29 14:49:43

計算機視覺智能

2024-03-04 07:50:00

模型成果

2025-06-25 09:04:59

2024-07-22 08:00:00

機器人虛擬

2023-10-04 11:54:34

2024-07-04 10:16:26

2024-11-01 09:45:08

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产在线永久免费 | 2022精品国偷自产免费观看 | 国产精品jizz在线观看老狼 | 一区二区精品 | 一本色道精品久久一区二区三区 | 久久专区 | 国产99久久精品 | 亚洲视频欧美视频 | 久久久噜噜噜www成人网 | 一区二区免费 | 黄网站免费观看 | 精品国产亚洲一区二区三区大结局 | www国产成人 | 最新国产视频 | 日日摸夜夜爽人人添av | 国产成人精品在线播放 | 999观看免费高清www | 国产成人99久久亚洲综合精品 | 国产精品99久久久久久人 | 久久69精品久久久久久久电影好 | 亚洲一区中文字幕 | 久久久免费少妇高潮毛片 | 亚洲欧美日韩一区 | 美国十次成人欧美色导视频 | 精品美女在线观看 | 久久天天 | 亚洲国产成人久久综合一区,久久久国产99 | 天天曰天天干 | 成人av看片 | 欧美日韩精品综合 | 99pao成人国产永久免费视频 | 成人网在线观看 | 久久久久网站 | 久久久久久一区 | 亚洲永久精品国产 | 日日艹夜夜艹 | 在线成人一区 | 国产乱码高清区二区三区在线 | av在线播放网站 | 在线观看欧美日韩视频 | 国产高清视频一区二区 |