成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

世界頂尖多模態大模型開源!又是零一萬物,又是李開復

人工智能 新聞
模型名為Yi Vision Language(Yi-VL),現已正式面向全球開源。

領跑中英文兩大權威榜單,李開復零一萬物交出多模態大模型答卷!

距離其首款開源大模型Yi-34B和Yi-6B的發布,僅間隔不到三個月的時間。

圖片

模型名為Yi Vision Language(Yi-VL),現已正式面向全球開源。

同屬Yi系列,同樣具有兩個版本:

Yi-VL-34B和Yi-VL-6B

先來看兩個例子,感受一波Yi-VL在圖文對話等多元場景中的表現:

圖片

Yi-VL對整幅圖做了詳細分析,不僅說明了指示牌上的內容,甚至連“天花板”都有照顧到。

中文方面,Yi-VL也能清晰有條理地準確表達:

圖片

此外,官方也給出了測試結果。

Yi-VL-34B在英文數據集MMMU上準確率41.6%,僅次于準確率55.7%的GPT-4V,超越一系列多模態大模型。

而在中文數據集CMMMU上,Yi-VL-34B準確率36.5%,領先于當前最前沿的開源多模態模型。

圖片

Yi-VL長啥樣?

Yi-VL基于Yi語言模型研發,可以看到基于Yi語言模型的強大文本理解能力,只需對圖片進行對齊,就可以得到不錯的多模態視覺語言模型——這也是Yi-VL模型的核心亮點之一。

架構設計上,Yi-VL模型基于開源LLaVA架構,包含三個主要模塊:

  • Vision Transformer(簡稱ViT)用于圖像編碼,使用開源的OpenClip ViT-H/14模型初始化可訓練參數,通過學習從大規模”圖像-文本”對中提取特征,使模型具備處理和理解圖像的能力。
  • Projection模塊為模型帶來了圖像特征與文本特征空間對齊的能力。該模塊由一個包含層歸一化(layer normalizations)的多層感知機(Multilayer Perceptron,簡稱MLP)構成。這一設計使得模型可以更有效地融合和處理視覺和文本信息,提高了多模態理解和生成的準確度。
  • Yi-34B-Chat和Yi-6B-Chat大語言模型的引入為 Yi-VL 提供了強大的語言理解和生成能力。該部分模型借助先進的自然語言處理技術,能夠幫助Yi-VL深入理解復雜的語言結構,并生成連貫、相關的文本輸出。
圖片

△圖說:Yi-VL模型架構設計和訓練方法流程一覽

訓練方法上,Yi-VL模型的訓練過程分為三個階段,旨在全面提升模型的視覺和語言處理能力。

第一階段,使用1億張的“圖像-文本”配對數據集訓練ViT和Projection模塊。

在這一階段,圖像分辨率被設定為224x224,以增強ViT在特定架構中的知識獲取能力,同時實現與大型語言模型的高效對齊。

第二階段,將ViT的圖像分辨率提升至448x448,讓模型更加擅長識別復雜的視覺細節。此階段使用了約2500萬“圖像-文本”對。

第三階段,開放整個模型的參數進行訓練,目標是提高模型在多模態聊天互動中的表現。訓練數據涵蓋了多樣化的數據源,共約100萬“圖像-文本”對,確保了數據的廣泛性和平衡性。

零一萬物技術團隊同時也驗證了可以基于Yi語言模型強大的語言理解和生成能力,用其他多模態訓練方法比如BLIP、Flamingo、EVA等快速訓練出能夠進行高效圖像理解和流暢圖文對話的多模態圖文模型。

Yi系列模型可以作為多模態模型的基座語言模型,給開源社區提供一個新的選項。同時,零一萬物多模態團隊正在探索從頭開始進行多模態預訓練,更快接近、超過GPT-4V,達到世界第一梯隊水平。

目前,Yi-VL模型已在Hugging Face、ModelScope等平臺上向公眾開放,用戶可親身體驗這款模型在圖文對話等多元場景中的表現。

超越一系列多模態大模型

在全新多模態基準測試MMMU中,Yi-VL-34B、Yi-VL-6B兩個版本均有不俗表現。

MMMU(全名Massive Multi-discipline Multi-modal Understanding & Reasoning 大規模多學科多模態理解和推理)數據集包含了11500個來自六大核心學科(藝術與設計、商業、科學、健康與醫學、人文與社會科學以及技術與工程)的問題,涉及高度異構圖像類型和交織文本圖像信息,對模型的高級知覺和推理能力提出了極高要求。

圖片

而Yi-VL-34B在該測試集上以41.6%的準確率,成功超越了一系列多模態大模型,僅次于GPT-4V(55.7%),展現出強大的跨學科知識理解和應用能力。

圖片

同樣,在針對中文場景打造的CMMMU數據集上,Yi-VL模型展現了“更懂中國人”的獨特優勢。

CMMMU包含了約12000道源自大學考試、測驗和教科書的中文多模態問題。

圖片

其中,GPT-4V在該測試集上的準確率為43.7%, Yi-VL-34B以36.5%的準確率緊隨其后,領先于當前最前沿的開源多模態模型。

圖片

項目地址:
[1]https://huggingface.co/01-ai

[2]https://www.modelscope.cn/organization/01ai

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-09-02 12:49:01

2025-01-08 08:21:16

2024-03-07 12:30:56

數據模型

2023-11-14 17:51:28

AI模型

2024-01-29 07:15:00

模型數據

2022-03-20 12:00:00

技術制裁大疆無人機

2024-03-14 11:31:52

零一萬物AI框架

2020-05-29 09:49:43

騰訊

2025-03-31 08:25:00

AI模型數據

2024-12-18 18:57:58

2024-11-13 09:39:13

2024-09-10 12:11:18

2024-12-30 00:01:00

多模態大模型Python

2025-03-19 09:30:00

2023-08-14 07:20:10

2024-09-25 14:53:00

2025-01-09 13:47:30

2024-03-25 12:30:18

AI訓練開源
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲人va欧美va人人爽 | 青草福利 | 狠狠色香婷婷久久亚洲精品 | 日日夜夜精品免费视频 | 天堂一区二区三区 | 一区二区三区av | 性大毛片视频 | 成人亚洲一区 | 激情一区二区三区 | 午夜欧美 | av免费入口| 一区二区三区国产视频 | 天天天天天天天干 | 亚洲精品在线91 | 国产成人精品久久久 | 久久精品视频一区二区 | 久久精品亚洲精品国产欧美kt∨ | 欧美成人专区 | 精品成人在线观看 | 日日摸夜夜添夜夜添精品视频 | 91亚洲国产成人精品一区二三 | 国产一级片91 | 国产在线第一页 | 在线观看视频一区 | 一区二区三区av | 国产美女在线播放 | 国产精品一级在线观看 | 日韩三级在线 | 精品日韩一区二区三区av动图 | 国产精品一区在线 | 麻豆av片| 91在线播 | 久在线观看 | 免费视频一区二区 | 欧美亚州 | 国产人久久人人人人爽 | 国产一区 | 亚洲精品黑人 | 91视频国产精品 | 综合久久久 | 99爱国产|