成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

看圖猜位置不輸o3!字節發布Seed1.5-VL多模態推理模型,在60個主流基準測試中拿下38項第一

人工智能 新聞
字節發布輕量級多模態推理模型Seed1.5-VL,僅用532M視覺編碼器+200億活躍參數就能與一眾規模更大的頂尖模型掰手腕,還是能帶圖深度思考的那種。

在60個主流基準測試中拿下38項第一!

字節發布輕量級多模態推理模型Seed1.5-VL,僅用532M視覺編碼器+200億活躍參數就能與一眾規模更大的頂尖模型掰手腕,還是能帶圖深度思考的那種。

相關技術報告也第一時間公開了。

圖片

整體而言,雖然是“以小博大”,但新模型在復雜謎題推理、OCR、圖表理解、3D空間理解等方面表現出色。

比如猜下圖中有幾只貓,人眼很容易誤將地上的黑貓當成影子:

圖片

還能用來玩“看圖找茬”,速度和準確率雙雙勝于人類:

圖片

同時也能用來解答復雜推理謎題,考公黨有福了(bushi~)

圖片

當然,以上也基于其強大的OCR識別能力。即便是長度驚人、中英混雜的消費小票,也能分分鐘轉換成表格。

圖片

除此之外,新模型還擅長處理Agent任務。它在GUI界面操作和游戲場景中,顯著優于OpenAI的CUA和Claude 3.7等模型。

圖片

那么它是如何做到的呢?

532M視覺編碼器 + 20B混合專家語言模型

通過深扒技術報告,背后關鍵主要在于模型架構訓練細節

據介紹,Seed1.5-VL由以下三個核心組件組成:

  • SeedViT:用于對圖像和視頻進行編碼;
  • MLP適配器:將視覺特征投射為多模態token;
  • 大語言模型:用于處理多模態輸入并執行推理。

圖片

模型支持多種分辨率的圖像輸入,并通過原生分辨率變換(native-resolution transform)確保最大限度保留圖像細節。

在視頻處理方面,團隊提出了一種動態幀分辨率采樣策略(dynamic frame-resolution sampling strategy),能夠根據需要動態調整采樣幀率和分辨率。

此外,為了增強模型的時間信息感知能力,在每幀圖像之前引入了時間戳標記(timestamp token)。

這些設計讓模型能夠高效處理各種多模態數據,包括文本、圖像和視頻等。

而基于上述架構,團隊接著開始了模型訓練。

首先,團隊使用了3萬億個多樣化且高質量的多模態標注,這些數據是根據模型需要發展的特定能力來組織和分類的。

圖片

其預訓練過程分為三個階段:

  • 階段0:僅訓練MLP適配器,以對齊視覺編碼器和語言模型;
  • 階段1:訓練所有模型參數,重點是掌握視覺定位和OCR能力;
  • 階段2:增加數據多樣性,擴展序列長度,以適應視頻理解和復雜推理任務。

值得一提的是,團隊在預訓練階段觀察到了——

大多數子類別的數據訓練損失與訓練標記數量之間遵循冪律關系,即訓練損失隨著訓練標記數量的增加而減少。

此外,某一子類別的訓練損失與該類別對應的下游任務評估指標之間呈現對數線性關系(例如:評估指標 ~ log(訓練損失))的趨勢,尤其在局部區域內尤為顯著。

后者意味著,可以通過訓練損失來一定程度上預測模型在下游任務上的表現。

圖片

接下來團隊又進行了后訓練,使用了監督微調和強化學習等技術。

其一,使用高質量的指令數據對模型進行微調,包括一般指令和長鏈推理(Long CoT)數據;

其二,結合人類反饋和可驗證獎勵信號,通過PPO算法進行訓練,以提高模型的對齊能力和推理能力。

需要注意的是,團隊在后訓練采用了結合拒絕采樣(rejection sampling)和在線強化學習(online reinforcement learning)的迭代更新方法。

他們構建了一條完整的數據pipeline,用于收集和篩選復雜提示,以增強后訓練階段的數據質量。

并且在強化學習過程中,監督信號通過獎勵模型和規則驗證器(rule verifiers)僅作用于模型生成的最終輸出結果。

也就是說,團隊特意避免對模型的詳細鏈式思維推理(chain-of-thought reasoning)過程進行監督。

圖片

最后,為了支持大規模預訓練和后訓練,團隊還開發了一系列優化技術:

  • 混合并行化:針對視覺編碼器和語言模型的不同特點,采用不同的并行策略;
  • 工作負載平衡:通過貪心算法重新分配視覺數據,平衡GPU工作負載;
  • 并行感知數據加載:減少多模態數據的I/O開銷;
  • 容錯機制:使用MegaScale框架實現容錯,確保訓練的穩定性。

這些技術顯著提高了訓練吞吐量,并降低了硬件成本。

60項測試中拿下38項SOTA

那么其實際表現如何呢?

實驗結果顯示,新模型在60項公開基準測試中取得了38項新SOTA,其中包括19項視頻基準測試中的14項,以及7項GUI智能體任務中的3項。

部分測試結果如下:

圖片

單拎出多模態智能體任務來看,它在多個GUI任務上,優于OpenAI的CUA和Claude 3.7等現有模型。

圖片

在多個游戲中,它也展現出強大的推理和決策能力。

圖片

與此同時,在內部測試中,新模型尤其在視覺推理、文檔理解、3D空間理解等方面表現出色。

圖片

光看測試結果可能還不夠,我們最后也來簡單實測一下。

比如玩最近很火的“看圖找地理位置”,隨意一張游客照也能正確推理識別。

圖片

鑒于圖中有燈塔這種可能容易暴露地標的元素,我們再換張難度更高的。

圖片

在無明顯標識的情況下,o3曾因猜出的位置距離正確答案(加州埃爾格拉納達附近的一家露天酒吧里)僅相差200-300公里而出圈。

而Seed1.5-VL最后的答案是加州沿海地區(比如蒙特雷縣、圣巴巴拉周邊的小鎮):

圖片

這兩個地點距離正確位置分別為160公里和440公里,和o3的表現已經相當接近。

圖片

不過最后需要提醒,團隊表示新模型仍存在一些局限性,尤其是在細粒度視覺感知、三維空間推理以及復雜組合搜索任務方面。

目前新模型可在Hugging Face在線體驗,歡迎大家評論區分享討論~

在線體驗:
https://huggingface.co/spaces/ByteDance-Seed/Seed1.5-VL
論文:
https://arxiv.org/abs/2505.07062
GitHub:
https://github.com/ByteDance-Seed/Seed1.5-VL

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-05-19 09:07:00

2025-05-14 15:05:21

模型AI訓練

2024-12-24 16:15:04

2025-04-23 08:30:05

2025-06-03 08:26:00

2025-06-10 03:30:00

2025-04-17 07:23:10

2025-06-11 08:56:54

2024-12-25 09:30:00

2025-04-11 12:04:58

2025-04-21 08:22:25

2025-06-08 14:15:42

2024-09-24 11:01:03

2025-05-21 08:47:00

2025-06-17 08:40:44

2025-03-19 09:30:00

2025-04-17 09:02:00

2025-06-11 09:19:46

2025-01-22 16:57:32

字節跳動豆包大模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人久久久久 | 久久综合色综合 | 国产伦一区二区三区久久 | 成人在线视频网 | 一区二区三区免费 | 欧美综合久久 | 天堂成人av | 99中文字幕| 欧美一级片在线看 | 成年人精品视频在线观看 | 一区二区日本 | 91视频88av| www.一级毛片 | 高清18麻豆 | 成人二区 | 日韩精品免费视频 | 欧美日韩亚洲国产综合 | 欧美日韩视频在线第一区 | 久久99精品国产麻豆婷婷 | 精品熟人一区二区三区四区 | 亚洲一区二区免费电影 | 国产在线一区二区 | 精品一二区 | 国产午夜精品福利 | 国产亚洲一区二区精品 | 精品国产一区久久 | 久久综合国产精品 | 国产日韩久久 | 亚洲av一级毛片 | 91一区| 国产高清视频 | 日韩精品视频网 | 久久99精品国产 | 欧美性猛交一区二区三区精品 | 日韩欧美不卡 | 精品一区视频 | 国产午夜视频 | 欧美日韩亚洲系列 | 看av网址| 日本精品一区二区三区在线观看视频 | 国产高清视频在线播放 |