ICML Spotlight | MCU:全球首個生成式開放世界基準,革新通用AI評測范式
該工作由通用人工智能研究院 × 北京大學聯(lián)手打造。第一作者鄭欣悅為通用人工智能研究院研究員,共同一作為北京大學人工智能研究院博士生林昊葦,通訊作者為北京大學助理教授梁一韜和通用人工智能研究院研究員鄭子隆。
開發(fā)能在開放世界中完成多樣任務的通用智能體,是AI領域的核心挑戰(zhàn)。開放世界強調環(huán)境的動態(tài)性及任務的非預設性,智能體必須具備真正的泛化能力才能穩(wěn)健應對。然而,現有評測體系多受限于任務多樣化不足、任務數量有限以及環(huán)境單一等因素,難以準確衡量智能體是否真正「理解」任務,或僅是「記住」了特定解法。
為此,我們構建了 Minecraft Universe(MCU) ——一個面向通用智能體評測的生成式開放世界平臺。MCU 支持自動生成無限多樣的任務配置,覆蓋豐富生態(tài)系統(tǒng)、復雜任務目標、天氣變化等多種環(huán)境變量,旨在全面評估智能體的真實能力與泛化水平。該平臺基于高效且功能全面的開發(fā)工具 MineStudio 構建,支持靈活定制環(huán)境設定,大規(guī)模數據集處理,并內置 VPTs、STEVE-1 等主流 Minecraft 智能體模型,顯著簡化評測流程,助力智能體的快速迭代與發(fā)展。
- 論文地址:https://arxiv.org/pdf/2310.08367
- 代碼開源:https://github.com/CraftJarvis/MCU
- 項目主頁:https://craftjarvis.github.io/MCU
- MineStudio:https://github.com/CraftJarvis/MineStudio
開放世界AI,亟需理想的評測基準!
傳統(tǒng)測試基準包含有標準答案的任務(如代碼、推理、問答),但開放世界任務 Minecraft 有著完全不同的挑戰(zhàn):
- 目標開放多樣:任務沒有唯一解,策略可以千變萬化;
- 環(huán)境狀態(tài)龐雜:狀態(tài)空間近乎無限,還原真實世界復雜度;
- 長周期任務挑戰(zhàn):關鍵任務持續(xù)數小時,智能體需長期規(guī)劃。
在這樣的環(huán)境中,我們需要的不只是一個評分系統(tǒng),而是一個維度豐富、結構多元的綜合評測框架。
MCU:為開放世界 AI 打造的「全方位試煉場」
當前已有不少 Minecraft 的測試基準,但它們普遍面臨「三大瓶頸」:
- 任務單一:局限于如挖鉆石、制造材料等少數幾個場景的循環(huán)往復。
- 脫離現實:部分建模任務甚至超出了普通人類玩家的能力范疇。
- 依賴人工評測:效率低下,導致評測難以規(guī)?;茝V。
與之前 minecraft 測試基準對比示意圖。
針對以上痛點,MCU 實現了以下三大核心突破:
一:3,452 個原子任務 × 無限組合生成,構筑海量任務空間
MCU 構建了一個覆蓋真實玩家行為的超大任務庫:
- 11 大類 × 41 子類任務類型:如挖礦、合成、戰(zhàn)斗、建造等;
- 每個任務都是「原子級粒度」:可獨立測試控制、規(guī)劃、推理、創(chuàng)造等能力;
- 支持 LLM 動態(tài)擴展任務,比如:用鉆石劍擊敗僵尸、雨天徒手采集木材、
在沙漠中建一座水上屋。
任意組合這些原子任務,即可生成無限的新任務,每一個都對 AI 是全新挑戰(zhàn)!
模擬多樣化真實世界挑戰(zhàn)。
二. 任務全自動生成 × 多模態(tài)智能評測,革新評估效率
GPT-4o 賦能,一句話生成復雜世界:
- 自動生成完整的任務場景(包括天氣、生物群系、初始道具等)。
- 智能驗證任務配置的可行性,有效避免如「用木鎬挖掘鉆石」這類邏輯錯誤型任務。
VLM(視覺語言模型)驅動,徹底改變了傳統(tǒng)人工打分的低效模式:
- 基于 VLM 實現對任務進度、控制策略、材料利用率、執(zhí)行效率、錯誤檢測及創(chuàng)造性六大維度的智能評分。
- 模型自動生成詳盡的評估文本,評分準確率高達 91.5%;
- 評測效率相較人工提升 8.1 倍,成本僅為人工評估的 1/5!
任務生成 x 多模態(tài)評測流程圖。
三:高難度 × 高自由度的「試金石」任務設計,深度檢驗泛化能力
MCU 支持每個任務的多種難度版本,如:
- 「白天在草原擊殺羊」VS「夜晚在雨林躲避怪物并擊殺羊」;
- 「森林里造瀑布」VS「熔巖坑邊緣建造瀑布」。
這不僅考驗 AI 是否能完成任務,更深度檢驗其在復雜多變環(huán)境下的泛化與適應能力。
打破「模型表現良好」的幻象:現有 SOTA 模型能否駕馭 MCU ?
我們將當前領域頂尖的 Minecraft 智能體引入 MCU 進行實戰(zhàn)檢驗:GROOT:視頻模仿學習代表;STEVE-I:指令執(zhí)行型控制器;VPT(BC/RL):基于 YouTube 行為克隆訓練而成的先驅。結果發(fā)現,這些智能體在簡單任務上表現尚可,但在面對組合任務和陌生配置場景時,完成率急劇下降,且錯誤識別與創(chuàng)新嘗試是其短板。
SOTA 模型在 MCU 上的測試結果。
研究團隊引入了更細粒度的任務進度評分指標(Task Progress),區(qū)別于傳統(tǒng) 0/1 式的「任務完成率」,它能動態(tài)刻畫智能體在執(zhí)行過程中的階段性表現,哪怕任務失敗,也能反映其是否在朝正確方向推進。
實驗發(fā)現,當前主流模型如 GROOT、STEVE-I、VPT-RL,在原子任務中尚有可圈可點的表現,但一旦面對更具組合性和變化性的任務,其成功率便會驟降。甚至對環(huán)境的微小改動也會導致決策混亂。比如「在房間內睡覺」這個看似簡單的任務,僅僅是將床從草地搬到屋內,就讓 GROOT 頻繁誤把箱子當床點擊,甚至轉身離開現場——這揭示了現有模型在空間理解與泛化上的明顯短板。
更令人警醒的是,智能體在建造、戰(zhàn)斗類任務中的「創(chuàng)造性得分」與「錯誤識別能力」幾乎全面落后。這說明它們尚未真正具備人類那種「發(fā)現問題、調整策略」的自主意識,而這正是通用智能邁向下一個階段的關鍵。
MCU 的評測結果首次系統(tǒng)性地揭示了當前開放世界智能體在「泛化、適應與創(chuàng)造」這三大核心能力上存在的鴻溝,同時也為未來的研究指明了方向:如何讓 AI 不僅能高效完成任務,更能深刻理解任務的本質,并創(chuàng)造性地解決復雜問題。