成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

LeCun怒斥Sora不能理解物理世界!Meta首發AI視頻「世界模型」V-JEPA

人工智能 新聞
短短幾天,「世界模型」雛形相繼誕生,AGI真的離我們不遠了?Sora之后,LeCun首發AI視頻預測架構V-JEPA,能夠以人類的理解方式看世界。

Sora一經面世,瞬間成為頂流,話題熱度只增不減。

圖片

強大的逼真視頻生成能力,讓許多人紛紛驚呼「現實不存在了」。

甚至,OpenAI技術報告中透露,Sora能夠深刻地理解運動中的物理世界,堪稱為真正的「世界模型」。

圖片

而一直將「世界模型」作為研究重心的圖靈巨頭LeCun,也卷入了這場論戰。

起因是,網友挖出前幾天LeCun參加WGS峰會上發表的觀點:「在AI視頻方面,我們不知道該怎么做」。

在他看來,「僅根據文字提示生成逼真的視頻,并不代表模型理解了物理世界。生成視頻的過程與基于世界模型的因果預測完全不同」。

圖片

接下來,LeCun更詳細地解釋道:

雖然可以想象出的視頻種類繁多,但視頻生成系統只需創造出「一個」合理的樣本就算成功。

而對于一個真實視頻,其合理的后續發展路徑就相對較少,生成這些可能性中的具代表性部分,尤其是在特定動作條件下,難度大得多。

此外,生成這些視頻后續內容不僅成本高昂,實際上也毫無意義。

更理想的做法是生成那些后續內容的「抽象表示」,去除與我們可能采取的行動無關的場景細節。

這正是JEPA(聯合嵌入預測架構)的核心思想,它并非生成式的,而是在表示空間中進行預測。

然后,他用自家的研究VICReg、I-JEPA、V-JEPA以及他人的工作證明:

與重建像素的生成型架構,如變分自編碼器(Variational AE)、掩碼自編碼器(Masked AE)、去噪自編碼器(Denoising AE)等相比,「聯合嵌入架構」能夠產生更優秀的視覺輸入表達。

當使用學習到的表示作為下游任務中受監督頭部的輸入(無需對主干進行微調),聯合嵌入架構在效果上超過了生成式架構。

也就是在Sora模型發布的當天,Meta重磅推出一個全新的無監督「視頻預測模型」——V-JEPA。

自2022年LeCun首提JEPA之后,I-JEPA和V-JEPA分別基于圖像、視頻擁有強大的預測能力。

號稱能夠以「人類的理解方式」看世界,通過抽象性的高效預測,生成被遮擋的部分。

圖片

論文地址:https://ai.meta.com/research/publications/revisiting-feature-prediction-for-learning-visual-representations-from-video/

V-JEPA看到下面視頻中的動作時,會說「將紙撕成兩半」。

圖片

再比如,翻看筆記本的視頻被遮擋了一部分,V-JEPA便能夠對筆記本上的內容做出不同的預測。

圖片

值得一提的是,這是V-JEPA在觀看200萬個視頻后,才獲取的超能力。

實驗結果表明,僅通過視頻特征預測學習,就能夠得到廣泛適用于各類基于動作和外觀判斷的任務的「高效視覺表示」,而且不需要對模型參數進行任何調整。

基于V-JEPA訓練的ViT-H/16,在Kinetics-400、SSv2、ImageNet1K 基準上分別取得了81.9%、72.2%和77.9%的高分。

圖片

看完200萬個視頻后,V-JEPA理解世界了

人類對于周遭世界的認識,特別是在生命的早期,很大程度上是通過「觀察」獲得的。

就拿牛頓的「運動第三定律」來說,即便是嬰兒,或者貓,在多次把東西從桌上推下并觀察結果,也能自然而然地領悟到:凡是在高處的任何物體,終將掉落。

這種認識,并不需要經過長時間的指導,或閱讀海量的書籍就能得出。

可以看出,你的內在世界模型——一種基于心智對世界的理解所建立的情景理解——能夠預見這些結果,并且極其高效。

Yann LeCun表示,V-JEPA正是我們向著對世界有更深刻理解邁出的關鍵一步,目的是讓機器能夠更為廣泛的推理和規劃。

圖片

2022年,他曾首次提出聯合嵌入預測架構(JEPA)。

我們的目標是打造出能夠像人類那樣學習的先進機器智能(AMI),通過構建對周遭世界的內在模型來學習、適應和高效規劃,以解決復雜的任務。

圖片

V-JEPA:非生成式模型

與生成式AI模型Sora完全不同,V-JEPA是一種「非生成式模型」。

它通過預測視頻中被隱藏或缺失部分,在一種抽象空間的表示來進行學習。

這與圖像聯合嵌入預測架構(I-JEPA)類似,后者通過比較圖像的抽象表示進行學習,而不是直接比較「像素」。

不同于那些嘗試重建每一個缺失像素的生成式方法,V-JEPA能夠舍棄那些難以預測的信息,這種做法使得在訓練和樣本效率上實現了1.5-6倍的提升。

V-JEPA采用了自監督的學習方式,完全依靠未標記的數據進行預訓練。

僅在預訓練之后,它便可以通過標記數據微調模型,以適應特定的任務。

因此,這種架構比以往的模型更為高效,無論是在需要的標記樣本數量上,還是在對未標記數據的學習投入上。

在使用V-JEPA時,研究人員將視頻的大部分內容遮擋,僅展示極小部分的「上下文」。

然后請求預測器補全所缺失的內容——不是通過具體的像素,而是以一種更為抽象的描述形式在這個表示空間中填充內容。

圖片

V-JEPA通過預測學習潛空間中被隱藏的時空區域來訓練視覺編碼器

掩碼方法

V-JEPA并不是為了理解特定類型的動作而設計的。

相反,它通過在各種視頻上應用自監督學習,掌握了許多關于世界運作方式的知識。

Meta研究人員還精心設計了掩碼(masking)策略:

如果不遮擋視頻的大部分區域,而只是隨機選取一些小片段,這會讓學習任務變得過于簡單,導致模型無法學習到關于世界的復雜信息。

同樣,需要注意的是,大多數視頻中,事物隨著時間的推移而逐漸演變。

如果只在短時間內掩碼視頻的一小部分,讓模型能看到前后發生的事,同樣會降低學習難度,讓模型難以學到有趣的內容。

因此,研究人員采取了同時在空間和時間上掩碼視頻部分區域的方法,迫使模型學習并理解場景。

高效預測,無需微調

在抽象的表示空間中進行預測非常關鍵,因為它讓模型專注于視頻內容的高層概念,而不必擔心通常對完成任務無關緊要的細節。

畢竟,如果一段視頻展示了一棵樹,你可能不會關心每一片樹葉的微小運動。

而真正讓Meta研究人員興奮的是,V-JEPA是首個在「凍結評估」上表現出色的視頻模型。

凍結,是指在編碼器和預測器上完成所有自監督預訓練后,就不再對其進行修改。

當我們需要模型學習新技能時,只需在其上添加一個小型的、專門的層或網絡,這種方式既高效又快速。

圖片

以往的研究還需要進行全面的微調,即在預訓練模型后,為了讓模型在細粒度動作識別等任務上表現出色,需要微調模型的所有參數或權重。

直白講,微調后的模型只能專注于某個任務,而無法適應其他任務。

如果想讓模型學習不同的任務,就必須更換數據,并對整個模型進行專門化調整。

V-JEPA的研究表明,就可以一次性預訓練模型,不依賴任何標記數據,然后將模型用于多個不同的任務,如動作分類、細粒度物體交互識別和活動定位,開辟了全新的可能。

圖片

- 少樣本凍結評估

研究人員將V-JEPA與其他視頻處理模型進行了對比,特別關注在數據標注較少的情況下的表現。

它們選取了Kinetics-400和Something-Something-v2兩個數據集,通過調整用于訓練的標注樣本比例(分別為5%,10%和50%),觀察模型在處理視頻時的效能。

為了確保結果的可靠性,在每種比例下進行了3次獨立的測試,并計算出了平均值和標準偏差。

結果顯示,V-JEPA在標注使用效率上優于其他模型,尤其是當每個類別可用的標注樣本減少時,V-JEPA與其他模型之間的性能差距更加明顯。

圖片

未來研究新方向:視覺+音頻同預測

雖然V-JEPA的「V」代表視頻,但迄今為止,它主要集中于分析視頻的「視覺元素」。

顯然,Meta下一步是研究方向是,推出一種能同時處理視頻中的「視覺和音頻信息」的多模態方法。

作為一個驗證概念的模型,V-JEPA在識別視頻中細微的物體互動方面表現出色。

比如,能夠區分出某人是在放下筆、拿起筆,還是假裝放下筆但實際上沒有放下。

不過,這種高級別的動作識別對于短視頻片段(幾秒到10秒鐘)效果很好。

因此,下一步研究另一個重點是,如何讓模型在更長的時間跨度上進行規劃和預測。

「世界模型」又進一步

到目前為止,Meta研究人員使用V-JEPA主要關注于的是「感知」——通過分析視頻流來理解周圍世界的即時情況。

在這個聯合嵌入預測架構中,預測器充當了一個初步的「物理世界模型」,能夠概括性地告訴我們視頻中正在發生的事情。

圖片

Meta的下一步目標是展示,如何利用這種預測器或世界模型來進行規劃和連續決策。

我們已經知道,JEPA模型可以通過觀察視頻來進行訓練,就像嬰兒觀察世界一樣,無需強有力的監督就能學習很多。

通過這種方式,僅用少量標注數據,模型就能快速學習新任務和識別不同的動作。

從長遠來看,在未來應用中,V-JEPA強大情境理解力,對開發具身AI技術以及未來增強現實(AR)眼鏡有著重大意義。

現在想想,如果蘋果Vision Pro能夠得到「世界模型」的加持,更加無敵了。

網友討論

顯然,LeCun對生成式AI并不看好。

圖片

「聽聽一個一直在試圖訓練用于演示和規劃的「世界模型」過來人的建議」。

Perplexity AI的首席執行官表示:

Sora雖然令人驚嘆,但還沒有準備好對物理進行準確的建模。并且Sora的作者非常機智,在博客的技術報告部分提到了這一點,比如打碎的玻璃無法很好地建模。

很明顯短期內,基于這樣復雜的世界仿真的推理,是無法在家用機器人上立即運行的。

圖片

事實上,許多人未能理解的一個非常重要的細微差別是:

在文本或視頻中生成看似有趣的內容并不意味著(也不需要)它「理解」自己生成的內容。一個能夠基于理解進行推理的智能體模型必須,絕對是在大模型或擴散模型之外。

圖片

但也有網友表示,「這并不是人類學習的方式」。

「我們對以往經歷的只記得一些獨特的,丟掉了所有的細節。我們還可以隨時隨地為環境建模(創建表示法),因為我們感知到了它。智能最重要的部分是泛化」。

圖片

還有人稱,它仍然是插值潛在空間的嵌入,到目前為止你還不能以這種方式構建「世界模型」。

圖片

Sora,以及V-JEPA真的能夠理解世界嗎?你怎么看?

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-03-05 11:18:14

模型訓練

2024-02-27 09:43:48

視頻模型

2024-04-18 12:16:37

MetaAIOpenEQA

2025-03-03 09:22:00

2024-02-19 14:07:00

數據模型

2022-02-28 11:10:05

AI機器學習模型

2025-06-13 00:03:00

2025-06-12 09:37:30

2023-01-02 13:33:25

2025-03-11 09:15:00

2023-06-14 09:15:15

2024-12-09 07:15:00

世界模型AILLM

2023-06-15 14:01:00

模型筆記

2024-10-16 09:50:32

2024-11-08 14:10:00

模型視頻生成

2023-12-12 13:52:00

數據訓練

2022-02-25 14:48:45

AI模型Meta

2024-03-11 07:40:00

開源AGI

2024-07-01 13:02:53

2024-05-13 12:53:06

AI模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲欧美综合精品久久成人 | 做a视频 | 欧美a区| 成人免费视频在线观看 | 亚洲国产精品久久久 | 插插插干干干 | 国产精品日韩欧美一区二区三区 | 久久亚 | 国产精品精品视频一区二区三区 | 在线播放国产一区二区三区 | 91精品国产综合久久婷婷香蕉 | 欧洲免费视频 | 欧美一区二区三区 | 欧美性一区二区三区 | 一区二区三区在线播放 | 亚洲精品免费在线 | 国产精品日韩欧美一区二区三区 | 久久久91精品国产一区二区三区 | 国产一区二区三区亚洲 | 欧美成人精品一区二区男人看 | 午夜av在线 | 69堂永久69tangcom | 精品日韩 | 99精品久久 | 久久人| 久草在线 | 毛片一区二区三区 | 国产一区二区影院 | 91精品国产综合久久久动漫日韩 | 综合九九 | 91免费看片| 午夜无码国产理论在线 | 女女爱爱视频 | 亚洲精品免费在线 | 亚洲天堂网站 | 亚洲精品电影在线观看 | 久久蜜桃资源一区二区老牛 | 玖玖玖在线观看 | 久免费视频 | 国产成人免费视频网站视频社区 | 91原创视频 |