成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

中國人民大學盧志武:ChatGPT對多模態通用生成模型的重要啟發

人工智能 新聞
3 月 21 日,在機器之心舉辦的 ChatGPT 及大模型技術大會上,中國人民大學高瓴人工智能學院教授、博士生導師盧志武發表了主題演講《ChatGPT 對多模態通用生成模型的重要啟發》。

以下為盧志武教授在機器之心舉辦的 ChatGPT 及大模型技術大會上的演講內容,機器之心進行了不改變原意的編輯、整理:

圖片

大家好,我是中國人民大學盧志武。我今天報告的題目是《ChatGPT 對多模態通用生成模型的重要啟發》,包含四部分內容。

圖片

首先,ChatGPT 帶給我們一些關于研究范式革新的啟發。第一點就是要使用「大模型 + 大數據」,這是一個已經被再三被驗證過的研究范式,也是 ChatGPT 的基礎研究范式。特別要強調一點,大模型大到一定程度的時候才會有涌現(emergent)能力,比如 In-context learning、CoT 推理等能力,這些能力令人感到非常驚艷。

圖片

第二點是要堅持「大模型 + 推理」,這也是 ChatGPT 讓我印象最深刻的一點。因為在機器學習或者人工智能領域,推理被公認為是最難的,而 ChatGPT 在這一點上也有所突破。當然,ChatGPT 的推理能力可能主要來自代碼訓練,但是否有必然的聯系還不能確定。在推理方面,我們應該下更多的工夫,搞清楚它到底來自什么,或者還有沒有別的訓練方式把它的推理能力進一步增強。

圖片

第三點是大模型一定要和人類對齊(alignment),這是 ChatGPT 在工程角度或模型落地角度給我們的重要啟示。如果沒有與人類對齊的話,模型會生成很多有害的信息,讓模型無法使用。第三點不是說提高模型的上限,而是模型的可靠性和安全性的確非常重要。

圖片

ChatGPT 的問世對很多領域,包括我自己,都有非常大的觸動。因為我自己做多模態做了好幾年,我會開始反思為什么我們沒有做出這么厲害的模型。

ChatGPT 是在語言或者文字上的通用生成,下面我們來了解一下多模態通用生成領域的最新進展。多模態預訓練模型已開始向多模態通用生成模型轉變,并有了一些初步的探索。首先我們看一下谷歌 2019 年提出的 Flamingo 模型,下圖是它的模型結構。

圖片

Flamingo 模型架構的主體是大型語言模型的解碼器(Decoder),即上圖右側藍色模塊,在每個藍色模塊之間加了一些 adapter 層,左側視覺的部分是添加了視覺編碼器(Vision Encoder)和感知器重采樣器(Perceiver Resampler)。整個模型的設計就是要把視覺的東西通過編碼和轉換,經過 adapter,跟語言對齊,這樣模型就可以為圖像自動生成文本描述。

Flamingo 這樣的架構設計有什么好處呢?首先,上圖中的藍色模塊是固定不動的(frozen),其中包括語言模型 Decoder;而粉色模塊本身的參數量是可以控制的,所以 Flamingo 模型實際上訓練的參數量是很少的。所以大家不要覺得多模態通用生成模型很難做,其實沒有那么悲觀。經過訓練的 Flamingo 模型就可以做很多基于文本生成的通用任務,當然輸入還是多模態的,比如做視頻描述、視覺問答、多模態對話等。從這個角度看 Flamingo 算是一個通用生成模型。

第二個例子是前段時間新發布的 BLIP-2 模型,它是基于 BLIP-1 改進的,它的模型架構和 Flamingo 特別像,基本還是包含圖像編碼器和大型語言模型的解碼器,這兩部分是固定不動的, 然后中間加了一個具有轉換器作用的 Q-Former—— 從視覺轉換到語言。那么,BLIP-2 真正需要訓練的部分就是 Q-Former。

如下圖所示,首先將一張圖(右邊的圖)輸入到 Image Encoder,中間的 Text 是用戶提出的問題或者指令,經過 Q-Former 編碼以后輸入到大型語言模型里,最后把答案生成出來,大概是這樣一個生成過程。

圖片

這兩種模型的缺點很明顯,因為它們出現的比較早或者剛出現,還沒有考慮 ChatGPT 用到的工程手段,至少在圖文對話或者多模態對話上沒有做指令微調,所以它們整體的生成效果不盡如人意。

第三個是微軟最近發布的 Kosmos-1,它的結構特別簡單,并且只用圖文對進行訓練,多模態數據比較單一。Kosmos-1 跟上面兩個模型最大的差別是:上面兩個模型中的大語言模型本身是固定不動的,而 Kosmos-1 中的大型語言模型本身是要經過訓練的,因此 Kosmos-1 模型的參數量只有 16 億,而 16 億參數的模型未必有涌現能力。當然,Kosmos-1 也沒考慮圖文對話上的指令微調,導致它有時也會胡說八道。

圖片

下一個例子是谷歌的多模態具身視覺語言模型 PaLM-E。PaLM-E 模型和前三個例子是大同小異的,PaLM-E 也用了 ViT + 大型語言模型。PaLM-E 最大的突破是它終于在機器人領域探索了一下多模態大語言模型的落地可能性。PaLM-E 嘗試了第一步探索,但是它考慮的機器人任務類型很有限,并不能達到真正的通用。

圖片

最后一個例子是 GPT-4—— 在標準數據集上給出了特別驚人的結果,很多時候它的結果甚至比目前在數據集上訓練微調過的 SOTA 模型還要好。這可能會讓人特別震驚,但實際上這個評測結果并不代表什么。我們在兩年前做多模態大模型時就發現大模型的能力不能在標準數據集上評估,在標準數據集上表現好并不代表實際使用的時候效果好,這兩個之間有很大的 gap。出于這個原因,我對目前的 GPT-4 有些許失望,因為它只給出了標準數據集上的結果。而且目前可用的 GPT-4 還不是視覺版的,只是純文字版的。

圖片

上面幾個模型總體來說是做通用的語言生成,輸入是多模態輸入,下面這兩個模型就不一樣了 —— 不僅要做通用語言生成,還要做視覺生成,既能生成語言也能生成圖像。

首先是微軟的 Visual ChatGPT,我簡單評價一下。這個模型的思路特別簡單,更多是產品設計上的考慮。與視覺有關的生成有很多種,還有一些視覺檢測模型,這些不同任務的輸入、指令千差萬別,問題就是怎么用一個模型把這些任務全部包含進來,所以微軟設計了 Prompt 管理器,核心部分用到了 OpenAI 的 ChatGPT,相當于把不同視覺生成任務的指令,通過 ChatGPT 翻譯過來。用戶的問題是自然語言描述的指令,通過 ChatGPT 把它翻譯成機器能懂的指令。

圖片

Visual ChatGPT 就是做了這樣一個事情。所以從產品的角度看確實很好,但從模型設計的角度看卻沒有新的東西。所以整體從模型的層面看是一個「縫合怪」,沒有統一的模型訓練,導致不同模態之間沒有互相促進。我們為什么做多模態,因為我們相信不同模態數據之間一定是互相幫助的。并且 Visual ChatGPT 也沒考慮多模態生成指令微調,它的指令微調只是依賴于 ChatGPT 本身。

下一個例子是清華朱軍老師的團隊發布的 UniDiffuser 模型。這個模型從學術角度真正做到了多模態輸入生成文字、生成視覺內容,這得益于他們基于 transformer 的網絡架構 U-ViT,類似于 Stable Diffusion 最核心的部件 U-Net,進而把圖像的生成和文本的生成統一在一個框架里。這個工作本身是很有意義的,但還是比較初期,比如只考慮了 Captioning 和 VQA 任務,沒有考慮多輪對話,也沒有做多模態生成上的指令微調。

圖片

前面評價了這么多,那我們自己也做了一個產品叫 ChatImg,如下圖所示。總體來說,ChatImg 包含圖像編碼器、圖文多模態編碼器和文本解碼器,和 Flamingo、BLIP-2 是類似的,但是我們考慮的更多,具體實現的時候有細節差異。

圖片

ChatImg 最大的一個優勢是可以接受視頻輸入。我們特別重視多模態通用生成,包括生成文字、生成圖像、生成視頻。我們希望在這一個框架里實現多種生成任務,最終希望接入文字生成視頻。

第二,我們特別重視真實用戶的數據,我們希望得到真實用戶數據以后不停優化生成模型本身,提高它的能力,所以我們發布了 ChatImg 應用。

下圖是我們測試的一些例子,作為一個初期模型,雖然還有一些做得不好的地方,但總體來說 ChatImg 對圖片的理解還是可以的。比如,ChatImg 可以在對話中生成對畫作的描述,也能做一些 In-context  learning。

圖片

上圖第一個例子描述了《星夜》這幅畫,在描述中 ChatImg 稱梵高是美國畫家,你告訴它錯了,它馬上就可以糾正過來;第二個例子 ChatImg 對圖中的物體做出了物理推斷;第三個例子是我自己拍的一張照片,這個照片里面有兩道彩虹,它準確地識別到了。

我們注意到上圖第三和第四個例子涉及到情緒方面的問題。這其實與我們接下來要做的工作有關,我們想把 ChatImg 接入到機器人里面去。現在的機器人通常是被動的,所有的指令全部是預設的,顯得很呆板。我們希望接入 ChatImg 的機器人可以主動和人交流。怎么做到這一點呢?首先機器人一定要能感受到人,可能是客觀地看到世界的狀態和人的情緒,也可能是獲得一種反映;然后機器人才能理解,才能跟人主動交流。通過這兩個例子我感覺這個目標是可以實現的。

圖片

最后,我總結一下今天的報告。首先,ChatGPT 和 GPT-4 帶來了研究范式的革新,我們所有人都應該去積極擁抱這個變化,不能抱怨,不能找借口說沒有資源,只要去面對這個變化,總有辦法克服困難。多模態研究甚至也不需要幾百卡的機器,只要采用對應的策略,少量的機器也可以做出很好的工作。第二,現有的多模態生成模型都存在各自的問題,GPT-4 還沒有開放視覺版,我們所有人也都還有機會。并且,我認為 GPT-4 還有一個問題,就是多模態生成模型最終應該是什么樣子它沒有給一個完美答案(實際上是沒有透露 GPT-4 的任何細節)。這其實是一件好事,全世界的人都很聰明,每個人都有自己的想法,這可能會形成百花齊放的研究新局面。我的演講就到這里,謝謝大家。

圖片

責任編輯:張燕妮 來源: 機器之心
相關推薦

2015-03-12 10:53:56

SSL VPN深信服

2020-11-26 17:04:02

騰訊實驗室系統

2018-01-11 10:15:14

速途網

2017-08-15 16:29:05

商學院

2015-03-25 13:49:10

無線網絡Aruba

2024-09-12 14:15:00

智能體AI

2011-03-28 17:07:14

海量數據庫

2015-05-07 11:45:07

鳳凰科技

2025-06-18 08:47:00

2021-04-08 10:06:38

數字人民幣數字貨幣區塊鏈

2024-08-28 08:32:28

2024-02-26 00:35:00

模型數據

2022-04-19 14:51:44

人工智能開源數據

2025-03-21 09:35:29

2017-04-24 09:24:17

借貸寶

2025-06-16 06:00:00

2024-05-11 18:40:36

2025-05-30 09:00:00

AI生成視頻

2021-09-07 13:22:57

模型人工智能計算
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美午夜精品 | 免费一区二区 | 99久热在线精品视频观看 | 欧美视频免费在线观看 | 国产视频第一页 | 欧美三级在线 | 国产成人精品视频在线观看 | 久久这里有精品 | 久久久精彩视频 | 女人毛片a毛片久久人人 | 超碰av人人 | 亚洲精品久久久久久久久久久 | 在线视频久久 | 国产精品久久久久久久毛片 | 浮生影院免费观看中文版 | 日本不卡在线观看 | 国产精品伦一区二区三级视频 | 国产中文字幕av | 91精品久久 | 久久99精品国产 | 亚洲一区二区中文字幕 | 亚洲综合色 | 毛片一级片 | 日韩一区二区三区在线 | 日韩在线观看视频一区 | www.99热.com| 中文字幕在线第一页 | 国产成人免费视频网站高清观看视频 | 国产精品区二区三区日本 | 欧美一区二区三区小说 | 99在线免费观看 | 中文字幕第一页在线 | 国产在线精品一区 | 亚洲高清网| 久久久免费 | 国产精品毛片久久久久久久 | 午夜免费在线观看 | 精品久久久一区 | 日韩一区二区三区在线观看 | 欧美性jizz18性欧美 | 亚洲免费在线观看av |