成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

谷歌DeepMind機器人成果三連發!兩大能力全提升,數據收集系統可同時管理20個機器人

人工智能 新聞
先是一個主打提高決策速度的新模型,讓機器人的操作速度(相比原來的Robotics Transformer)提高了14%——快的同時,質量也沒有下滑,準確度還上升了10.6%。

幾乎是和斯坦福“炒蝦洗碗”機器人同一時間,谷歌DeepMind也發布了最新具身智能成果。

圖片

并且是三連發

先是一個主打提高決策速度的新模型,讓機器人的操作速度(相比原來的Robotics Transformer)提高了14%——快的同時,質量也沒有下滑,準確度還上升了10.6%。

圖片

然后再來一個專攻泛化能力的新框架,可以給機器人創建運動軌跡提示,讓它面對41項從未見過的任務,取得了63%的成功率。

圖片

別小看這個數組,對比之前的29%,進步可謂相當大

最后是一個機器人數據收集系統,可以一次管理20個機器人,目前已從它們的活動中收集了77000次實驗數據,它們將幫助谷歌更好地完成后續訓練工作。

圖片

那么,這三個成果具體是什么樣?我們一個一個來看。

機器人日常化第一步:沒見過的任務也能直接做

谷歌認為,要生產出真正可進入現實世界的機器人,必須要解決兩個基本挑戰:

1、新任務推廣能力

2、提高決策速度

本次三連發的前兩項成果就主要在這兩大領域作出改進,且都建立在谷歌的基礎機器人模型Robotics Transformer(簡稱RT)之上。

首先來看第一個:幫助機器人泛化的RT-Trajectory

對于人類來說,譬如完成擦桌子這種任務簡直再好理解不過了,但機器人卻不是很懂。

不過好在我們可以通過多種可能的方式將這一指令傳達給它,讓它作出實際的物理行動。

一般來說,傳統的方式就是將任務映射為一個個特定的動作,然后讓機械臂完成,例如對于擦桌子,就可以拆解為“合上夾具、向左移動、向右移動”。

很明顯,這種方式的泛化能力很差。

在此,谷歌新提出的RT-Trajectory通過給機器人提供視覺提示的方法來教它完成任務。

圖片

具體而言,由RT-Trajectory控制的機器人在訓練時會加入2D軌跡增強的數據。

這些軌跡以RGB圖像的形式呈現,包括路線和關鍵點,在機器人學習執行任務時提供低級但非常實用的提示。

有了這個模型,機器人執行從未見過的任務的成功率直接提高了1倍之多(相比谷歌的基礎機器人模型RT-2,從29%=>63%)

更值得一提的是,RT-Trajectory可以用多種方式來創建軌跡,包括:
通過觀看人類演示、接受手繪草圖,以及通過VLM(視覺語言模型)來生成。

圖片

機器人日常化第二步:決策速度一定要快

泛化能力上來以后,我們再來關注決策速度。

谷歌的RT模型采用的是Transformer架構,雖然Transformer功能強大,但嚴重依賴于有著二次復雜度的注意力模塊。

因此,一旦RT模型的輸入加倍(例如給機器人配上更高分辨率的傳感器),處理起來所需的計算資源就會增加為原來的四倍,這將嚴重減慢決策速度。

為了提高機器人的速度,谷歌在基礎模型Robotics Transformer上開發了SARA-RT

SARA-RT使用一種新的模型微調方法讓原來的RT模型變得更為高效。

這種方法被谷歌稱之為“向上訓練”,它主要的功能就是將原來的二次復雜度轉換為線性復雜度,同時保持處理質量。

將SARA-RT應用于具有數十億參數的RT-2模型時,后者可以在各種任務上實現更快的操作速度以及更高的準確率。

同樣值得一提的是,SARA-RT提供的是一種通用的加速Transformer的方法,且無需進行昂貴的預訓練,因此可以很好地推廣開來。

數據不夠?自己創造

最后,為了幫助機器人更好地理解人類下達的任務,谷歌還從數據下手,直接搞了一個收集系統:AutoRT。

這個系統將大模型(包括LLM和VLM)與機器人控制模型(RT)相結合,不斷地指揮機器人去執行現實世界中的各種任務,從而產生數據并收集。

具體流程如下:

讓機器人“自由”接觸環境,靠近目標。

然后通過攝像頭以及VLM模型來描述眼前的場景,包括具體有哪些物品。

接著,LLM就通過這些信息來生成幾項不同的任務。

注意了,生成以后機器人并不馬上執行,而是利用LLM再過濾一下哪些任務可以獨立搞定,哪些需要人類遠程控制,以及哪些壓根不能完成。

像不能完成的就是“打開薯片袋”這種,因為這需要兩只機械臂(默認只有1只)

圖片

再然后,做完這個篩選任務以后,機器人就可以去實際執行了。

最后由AutoRT系統完成數據收集并進行多樣性評估。

據介紹,AutoRT可一次同時協調多達20個機器人,在7個月的時間內,一共收集了包括6650個獨特任務在內的77000次試驗數據。

最后,對于此系統,谷歌還特別強調了安全性

畢竟AutoRT的收集任務作用于現實世界,“安全護欄”不能少。

具體而言,基礎安全守則由為機器人進行任務篩選的LLM提供,它的部分靈感來自艾薩克·阿西莫夫的機器人三定律——首先也是最重要的是“機器人不得傷害人類。

其次還包括要求機器人不得嘗試涉及人類、動物、尖銳物體或電器的任務。

但這還遠遠不夠。

因此AutoRT還配有常規機器人技術中的多層實用安全措施。

例如,機器人在其關節上的力超過給定閾值時自動停止、所有行動都可由保持在人類視線范圍內的物理開關停止等等。

圖片

還想進一步了解谷歌的這批最新成果?

好消息,除了RT-Trajectory只上線論文以外,其余都是代碼和論文一并公布,歡迎大家進一步查閱~

One More Thing

說起谷歌機器人,就不得不提RT-2(本文的所有成果也都建立之上)

這個模型由54位谷歌研究員耗時7個月打造,今年7月底問世。

嵌入了視覺-文本多模態大模型VLM的它,不僅能理解“人話”,還能對“人話”進行推理,執行一些并非一步就能到位的任務,例如從獅子、鯨魚、恐龍這三個塑料玩具中準確撿起“已滅絕的動物”,非常驚艷。

圖片

如今的它,在短短5個多月內便迎來了泛化能力和決策速度的迅速提升,不由地讓我們感嘆:不敢想象,機器人真正沖進千家萬戶,究竟會有多快?

責任編輯:張燕妮 來源: 量子位
相關推薦

2024-01-05 13:24:29

谷歌家務機器人AI

2024-01-05 09:16:22

谷歌機器人人工智能

2020-10-15 15:42:00

人工智能

2010-02-05 10:31:46

谷歌機器人

2019-03-27 09:27:06

機器人人工智能系統

2022-01-10 22:06:41

機器人AI人工智能

2024-01-05 19:44:48

谷歌機器人憲法AI

2021-07-22 10:17:55

加密機器人加密貨幣機器人

2021-08-19 15:44:20

機器人人工智能機器學習

2015-07-28 09:36:11

機器人

2018-09-29 16:16:43

微軟機器人Windows

2021-06-07 08:28:26

人工智能AI機器人

2015-12-10 21:49:32

IM機器人

2012-03-08 09:42:16

開源軟件Linux

2023-10-29 21:20:04

谷歌Bard聊天機器人

2018-03-28 09:28:16

CITE機器人智能系統館

2022-09-13 12:39:58

機器人

2021-03-18 19:19:35

機器人AI人工智能

2019-01-27 15:03:52

機器人下崗智障機器人

2020-04-10 21:36:46

協作機器人物聯網機器人
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲一级二级三级 | www.xxxx欧美| 91精品国产综合久久香蕉922 | 日韩2020狼一二三 | 天天草视频 | 四虎影音 | 亚洲激情在线观看 | 久久视频精品在线 | 欧美偷偷| 亚洲一区视频在线 | 久久婷婷麻豆国产91天堂 | 国产精品99久久久久久人 | 久色视频在线观看 | 日韩欧美视频免费在线观看 | 综合国产在线 | 日中文字幕在线 | 国产在线观看一区二区三区 | 一级看片免费视频囗交动图 | 精品久久香蕉国产线看观看亚洲 | 不卡在线视频 | 国产日韩欧美一区二区 | 日韩一区不卡 | 91免费福利在线 | 综合一区二区三区 | 亚洲成人精选 | 亚洲激情在线观看 | 久久国产精品无码网站 | 99婷婷| 午夜精品久久久久久久久久久久久 | 亚洲视频在线播放 | 欧美成人一区二区三区 | 91最新入口| 高清久久久 | 99免费视频 | 欧美一级α片 | 人人干人人干人人干 | 天天干天天插天天 | 色橹橹欧美在线观看视频高清 | 国产黄色网 | 一区二区三区小视频 | 欧美激情一区二区三区 |