成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

17款大模型PK八款棋牌游戲,o3-mini勝出,DeepSeek R1輸在中間步驟

人工智能 新聞
O3-mini和R1的表現已經體現出一些智能,但它們依舊不夠聰明——以Connect4為例,對于直接能連成四子的局面,它們有時會看不出來。

AI社區掀起用大模型玩游戲之風!

例如國外知名博主讓DeepSeek和Chatgpt下國際象棋的視頻在Youtube上就獲得百萬播放,ARC Prize組織最近也發布了一個貪吃蛇LLM評測基準SnakeBench。

圖片

針對這一場景,來自港大、劍橋和北大的研究人員發布了一個更全面、客觀可信的LLM評測基準:GameBoT

讓大模型在8個游戲中互相PK,評測各主流大模型的推理能力。游戲PK避免模型“背答案”;除了輸贏之外,GameBoT還評估大模型輸出的中間步驟,實現更細粒度和客觀的測評。

圖片

通過游戲來評估 LLM

傳統的LLM benchmark面臨著兩個挑戰:性能飽和與數據污染。性能飽和指的是榜單分數已經被刷的很高,幾乎沒有進一步提升的空間。例如,Qwen2-Math-72B-Instruct在GSM8k上已達到了96.7%的準確率。數據污染是指由于語言模型在大規模網絡語料庫上進行預訓練,它們可能會無意中遇到并記住這些基準測試中的測試實例。因此,LLM可能會獲得虛高的性能分數。

而通過游戲來評測,正好既具有挑戰性,又能夠通過動態的游戲環境來避免模型提前記住“試卷答案”。

中間步驟評測

相較于其他一樣用游戲來評測LLM的benchmark,GameBoT有何不同呢?

其他的benchmark往往只根據游戲最終的輸贏作為標準,然而一次比賽可能有幾十上百個回合,一個回合的決策就有可能直接決定輸贏,這帶來了很大偶然性;除此之外,LLM經常會出現思考過程和最終決策不對應的情況,有可能只是碰巧選到了一個好的決策——GameBoT中的一個關鍵設計在于,不僅僅評測最終勝負,還評測LLM的中間思考過程是否正確。

圖片

△評估中間步驟可以利用更豐富的信息

為了對LLM的推理進行細粒度分析,作者將每個游戲中復雜的決策過程分解為2-3個邏輯上關鍵的子問題,每個子問題都被設計為有唯一確定答案的,并讓大模型在回答子問題的基礎上回答最終決策。LLM被限定通過這個格式回答:“[中間思考結果:XXX]”,方便直接提取答案。同時,對于設計好的問題,作者預先開發好基于規則的算法來生成標準答案,從而更客觀高效地評估模型性能。

例如在 Surround 游戲中,設計了這樣的問題:

  1. 當前位置周圍的值是多少?
  2. 當前安全移動的方向有哪些?
  3. 該方向能保證至少十次安全移動嗎?

評測中間步驟帶來了幾個優勢:更細粒度的評測,更高的可解釋性,更清楚的了解模型能力的優勢和劣勢。

Prompt 設計

為確保公平評估大語言模型學習和應用游戲策略的能力,我們設計了非常詳細的足以作為教程的游戲prompt。

包含三個結構化部分:<游戲規則>、<輸入>和<輸出>,其中 <游戲規則>部分提供完整的游戲規則說明,<輸入>規范模型接收的輸入格式,<輸出>明確指定結構化輸出要求。

在<輸出>中包含了詳細的Chain-of-Thought,提供了人類專家設計的游戲策略,指導LLM通過三步框架(策略理解→子問題分解→策略應用)解決復雜問題。教程級別的 prompt確保評估聚焦于模型基于新信息的推理能力(zero-shot 或one-shot),而非依賴預訓練數據中的既有知識。

圖片GameBot框架

評測游戲

1.Surround

游戲中玩家通過控制方向在屏幕上移動,并試圖圍住對手。先撞上自己的軌跡、對手的軌跡或者墻壁的一方算輸。

圖片

左:GPT-4o;右:Claude-35-Sonnet

2. Pong 乒乓

玩家通過控制球拍在屏幕上移動,并試圖將球擊回對手區域。先未能接到球的一方算輸。

圖片

左:GPT-4o-mini;右:Llama3.1-405b

3.TicTacToe 井字棋

先連成三子的一方贏。

圖片

X:Gemini-1.5-pro-preview;O:Llama3.1-70b

4.Connect4 四子棋

先連成四子的一方贏,每次只能從最底下開始落子。

圖片

黃:Claude-35-Sonnet;紅:GPT-4o-mini

5. Othello

黑白棋夾住翻轉對手的棋子以占據更多格子。游戲結束時,棋盤上棋子數量更多的一方獲勝。

圖片

△黑:GPT-4o;白:Llama3.1-405b

6. Texas Hold’em 德州撲克

玩家根據自己的牌力下注,擊敗對手贏得底池。游戲結束時,牌型最強的一方獲勝。

圖片

△下:GPT-4;上:Claude-3-Sonnet

7. Checkers 跳棋

跳過對手的棋子完成吃子,被吃光的輸掉。

圖片

△白:Gemini-1.5-pro-preview;黑:Jamba-1.5-large

8. Negotiation v2

玩家協商物品的分配,來盡可能獲得更多價值。游戲在8輪后每輪有20%的概率結束,若游戲結束前未達成協議,雙方均得0分。

圖片

△P1: GPT-4o; P2: Gemini-1.5-pro-preview

LLM 淘汰賽,誰會勝出?

在論文發布的版本里,作者評測了包括 GPT-4o,Claude-35-Sonnet, Gemini-1.5-pro-preview 等17個當時最領先的 LLM,每兩個模型在每個游戲上進行20輪相互對抗賽(10 輪先手 10 輪后手)。這種設計既保證了評估有效性,又能確保足夠多的游戲局面。

隨著新的大模型發布,作者更新了對更強的大模型的評測,包含Gemini-2.0-flash-thinking,Gemini-2.0-pro-exp,O1-preview,Deepseek R1,O3-mini,Claude 3.7 Sonnet,GPT-4.5。比賽采用淘汰制,部分實驗結果:

圖片

最終排名:

圖片

出乎意料的是,盡管在Chatbot Arena榜單上高居前三,Gemini-2.0-flash-thinking在GameBoT榜單上相對其他新模型表現并不亮眼,最近火熱的Deepseek R1也是和O1-preview打成平手,稍遜于O3-mini-high。

中間步驟得分 F1 Score:

Rank

Model

F1 Score

1

o3-mini-high

0.873

2

o1-preview

0.854

3

gemini-2.0-pro-exp

0.396

4

gemini-2.0-flash-thinking

0.253

5

deepseek-r1

0.176

Deepseek R1的中間步驟分意外很低,檢驗后發現,盡管最終的決策表現很好,R1 的思考過程非常繁冗,經常出現連續十幾次“wait”然后重新思考的現象,時常沒法按要求給出中間步驟的答案。

實戰分析

以下是O3-mini 和 Deepseek R1 的實戰分析。O3-mini:X,Deepseek R1:O。

圖片

當棋局開局來到此時,是 O3-mini 設置的第一個考驗,不在 2 或者 5 位置堵住的話 Deepseek R1 會直接輸掉。R1 正確應對:

Placing at 5 blocks X’s immediate threat and limits their ability to build a horizontal line.

當棋局來到

圖片

R1 對于優勢局面窮追不舍,繼續下在 2 形成三子。

Placing O at (3,2) forms a horizontal trio in row 3, setting up potential for a future four-in-a-row. This move also occupies the central column 2, enhancing control over multiple directions and blocking X from advancing in column 2. Additionally, this position can contribute to a diagonal with existing O pieces at (4,3) and (3,3), offering multiple pathways to victory.

圖片

這一步,非常驚喜 R1 能夠注意到 (3,2) 除了橫方向上連成三子,還和(4,3)呼應,是一步精彩的落子。作為回應,O3-mini 雖然選擇了一步敗招,落在 Column 1 中,導致 O 繼續落在 1 直接勝利,但 O3-mini 給出的理由也體現了一定程度的智能。

If the opponent later uses (2,1) to complete a diagonal with their O’s at (3,2) and (4,3) (aiming for a win by eventually filling (5,4)), it would be dangerous. By playing (2,1) now I both deny that chance for O and build my own potential diagonal connection (using my existing X’s at (0,3) and (1,2) which would then point to a winning continuation with a future piece at (3,0)). This dual-purpose move makes (2,1) the best choice.

這個回答讓人猛然發現,原來此時早已是無解的局面——如果隨手落在別處,例如 5, 2 等, 那下一手 O 落在 1 將一招斃命,此時直接形成雙三,沒法同時堵Column 4 和 Column 1。O3-mini 的正確走法也許應該先落在 4 處,雖然也只能拖延幾步,避免不了失敗(感興趣的讀者可以推演)。

觀察發現

對新模型的評測實驗主要發現如下:

  • 在測試的模型中,O3-mini-high的游戲推理性能以及中間步驟得分都是最強。
  • R1 的推理能力也很優秀,但對于復雜問題,生成的中間思考過程非常不易讀,或者無法按prompt要求給出中間步驟的答案。可控性相對較差。
  • Gemini-2-flash-thinking也存在可控性(或者說指令遵循能力,Instruction following)較差的問題,綜合游戲推理性能并沒有 Chatbot Arena 顯示出來的那么優秀。

總之,O3-mini和R1的表現已經體現出一些智能,但它們依舊不夠聰明——以Connect4為例,對于直接能連成四子的局面,它們有時會看不出來。這也體現在它們的中間步驟評測分并不是滿分上。另外,盡管在prompt中提示了需要think ahead多考慮幾步,目前最先進的大模型也只能考慮當前這一步最優。

論文: https://arxiv.org/abs/2412.13602 

項目主頁: https://visual-ai.github.io/gamebot/ 

代碼: https://github.com/Visual-AI/GAMEBoT

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-02-03 14:06:32

2025-02-17 08:12:00

AI模型生成

2025-02-03 12:38:28

2025-02-18 09:00:00

2025-02-08 11:44:03

2025-02-08 17:00:11

2025-02-14 10:47:40

2025-04-10 10:02:43

2025-02-10 00:00:01

2024-12-24 16:15:04

2025-03-03 07:30:00

谷歌模型AI

2025-01-27 12:30:07

2025-04-29 07:47:27

2025-03-13 06:34:49

2025-02-08 08:18:39

2025-03-10 08:10:00

AI研究安全

2025-01-20 19:52:50

2025-02-20 15:32:28

2014-07-17 11:10:19

Android開源游戲引擎

2011-05-31 15:45:38

Android 游戲引擎 開源
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一区二区三区四区国产 | 午夜视频一区 | 久久综合久久综合久久 | 久久一热| 国产精品三级 | 久久亚洲精品国产精品紫薇 | 成人高清在线视频 | 色视频欧美 | 69av片| www.99久久.com | 中文在线亚洲 | 精品国产精品三级精品av网址 | 国产1区在线 | 国产日韩欧美另类 | 这里只有精品999 | 日本久久久久久 | 一区二区三区在线免费观看 | 密桃av| 日本三级电影在线免费观看 | 亚洲综合视频 | 欧美日韩高清在线一区 | 四虎成人免费电影 | 99九九久久 | 理伦毛片| 中文字幕一区二区三区四区五区 | 午夜精品视频在线观看 | 精品欧美一区二区三区久久久小说 | 久久新 | 玖玖操| 亚洲黄色视屏 | 国产二区精品视频 | 在线成人精品视频 | 欧美性视频在线播放 | 亚洲三区在线观看 | 成人国产精品免费观看 | 黑人精品欧美一区二区蜜桃 | 成人精品一区二区三区中文字幕 | 久久爱综合| 日韩精品一区二区在线 | 久久免费小视频 | 欧美三级免费观看 |