成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

模塊化重構LLaVA,替換組件只需添加1-2個文件,開源TinyLLaVA Factory來了

人工智能 新聞
清華和北航聯合推出了 TinyLLaVA Factory, 一款支持定制、訓練、評估多模態大模型的代碼庫,代碼和模型全部開源。

TinyLLaVA 項目由清華大學電子系多媒體信號與智能信息處理實驗室 (MSIIP) 吳及教授團隊和北京航空航天大學人工智能學院黃雷老師團隊聯袂打造。清華大學 MSIIP 實驗室長期致力于智慧醫療、自然語言處理與知識發現、多模態等研究領域。北航團隊長期致力于深度學習、多模態、計算機視覺等研究領域。

近日,清華和北航聯合推出了 TinyLLaVA Factory, 一款支持定制、訓練、評估多模態大模型的代碼庫,代碼和模型全部開源。該代碼庫以軟件工程的工廠模式作為設計理念,模塊化地重構了 LLaVA 代碼庫,注重代碼的可讀性、功能的擴展性、和實驗效果的可復現性。方便研究者和實踐家們更容易地探索多模態大模型的訓練和設計空間。

圖片

  • Github 項目:https://github.com/TinyLLaVA/TinyLLaVA_Factory
  • 論文地址:https://arxiv.org/abs/2405.11788
  • Hugging Face 模型地址:https://huggingface.co/tinyllava/TinyLLaVA-Phi-2-SigLIP-3.1B or https://huggingface.co/bczhou/TinyLLaVA-3.1B-SigLIP
  • 機器之心 SOTA 模型地址:https://sota.jiqizhixin.com/project/tinyllava

LLaVA 作為多模態社區的優質開源項目,備受研究者和開發者的青睞;新入坑多模態大模型的初學者們也習慣以 LLaVA 項目作為起點,學習和訓練多模態大模型。但是 LLaVA 項目的代碼較為晦澀難懂,一旦不慎更改錯誤,就可能會影響訓練效果,對于新手來說,往往不敢輕易修改其中的細節,給理解和探索多模態大模型的本質細節造成了一定的困難。

近日,清華和北航聯合推出 TinyLLaVA Factory,將本來的 LLaVA 代碼進行模塊化重構,專注于簡潔的代碼實現、新功能的可擴展性、以及訓練結果的可復現性,讓你以最小的代碼量,定制并訓練屬于自己的多模態大模型,同時減少代碼錯誤率!相同的模型配置、訓練數據和訓練策略條件下,使用 TinyLLaVA Factory 可訓練出比用 LLaVA 代碼性能略勝一籌的模型。為了讓用戶更容易地讀懂代碼和使用模型,TinyLLaVA Factory 項目還配備了代碼文檔和 Demo 網站。其總體架構圖如下。

圖片

數據預處理部分,TinyLLaVA Factory 摒棄了 LLaVA 代碼中燒腦的圖片處理和 Prompt 處理過程,提供了標準的、可擴展的圖片和文本預處理過程,清晰明了。其中,圖片預處理可自定義 Processor,也可使用一些官方視覺編碼器的 Processor,如 CLIP ViT 和 SigCLIP ViT 自帶的 Image Processor。對于文本預處理,定義了基類 Template,提供了基本的、共用的函數,如添加 System Message (Prompt)、Tokenize、和生成標簽 Ground Truth 的函數,用戶可通過繼承基類就可輕松擴展至不同 LLM 的 Chat Template。

圖片

圖片

模型部分,TinyLLaVA Factory 很自然地將多模態大模型模塊化成 3 個組件 —— 大語言模型組件、視覺編碼器組件、中間的連接器組件。每個組件由一個工廠對象控制,負責新模型的注冊和替換,使用戶能夠更容易地替換其中任何一個組件,而不會牽連到其他部分。

圖片

TinyLLaVA Factory 為每個組件提供了當前主流的模型,如下表所示。

圖片

訓練器仍然仿照 LLaVA,采取 Hugging Face 自帶的 Trainer,集成了 Gradient Accumulation,Wandb 做日志記錄等特性,同樣支持 DeepSpeed ZeRO2/ZeRO3 并行訓練。對于評估部分,TinyLLaVA Factory 提供了 SQA/GQA/TextVQA/VQAv2/POPE/MME/MM-Vet/MMMU 8 個 Benchmark 的評估。

接下來,劃重點!TinyLLaVA Factory Github 項目還手把手教你定制自己的多模態大模型。只需簡單地添加 1-2 個文件,就可以輕松替換 LLM 組件、視覺編碼器組件、連接器組件。

拿替換 LLM 模型舉例。據使用過 LLaVA 代碼庫的同學反應,LLaVA 代碼想替換非 Llama 系列的語言模型容易出錯。而 TinyLLaVA Factory 可以方便地替換語言模型,只需添加 2 個 py 文件,一個是 Chat Template 文件,一個是模型文件。替換視覺編碼器時,也只需添加 1 個 py 文件,繼承視覺編碼器的基類即可。

圖片

TinyLLaVA Factory 還支持對訓練策略進行定制,對使用者來說只需在配置文件中進行修改,就能在 pretraining 和 finetuning 階段對 3 個模塊組件(LLM / 視覺編碼器 / 連接器)實現凍住 / 全量微調 / 部分微調 /lora 微調的任意組合。堪稱小白易上手式的教程!

圖片

早在今年 2 月,TinyLLaVA 項目就敏銳地捕捉到了 3B 以下 LLM 在多模態大模型中的潛力,利用市面主流的小規模 LLM,訓練了一系列多模態大模型,參數量在 0.89B-3.1B。實驗結果表明經過高質量的數據選擇和更加細致的訓練策略,利用小規模 LLM 同樣可以實現和大模型相近甚至更加優越的任務表現。(細節詳見技術報告 https://arxiv.org/abs/2402.14289)

責任編輯:張燕妮 來源: 機器之心
相關推薦

2013-08-20 16:45:22

重構Web App模塊化

2015-07-02 13:21:44

模塊化數據中心

2017-08-08 16:07:57

Android 模塊化架構

2017-08-11 16:10:36

微信Android實踐

2017-02-13 18:46:38

Android模塊化組件化

2014-04-27 10:16:31

QCon北京2014Andrew Bett

2019-08-28 16:18:39

JavaScriptJS前端

2018-12-17 15:28:37

5G路由器貓設計

2017-07-11 11:02:03

APP模塊化架構

2009-10-28 13:29:14

Linux文件系統安裝

2025-02-06 10:05:00

模型生成圖像

2022-01-10 08:43:25

CanonicalSnap應用Linux

2023-06-28 08:12:49

Python代碼重構

2018-09-07 23:06:18

量子計算機架構開發

2020-09-17 10:30:21

前端模塊化組件

2013-08-20 15:31:18

前端模塊化

2017-05-18 10:23:55

模塊化開發RequireJsJavascript

2015-10-10 11:29:45

Java模塊化系統初探

2022-03-11 13:01:27

前端模塊

2020-09-18 09:02:32

前端模塊化
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久99成人 | 欧美精品在欧美一区二区少妇 | 久久国产区 | 国内自拍偷拍一区 | 久草中文在线 | 黄视频欧美 | 毛片大全 | 色综合视频在线 | 日韩国产欧美视频 | 国产精品日韩欧美一区二区三区 | 成人在线一区二区 | 国产精品免费一区二区三区四区 | 日韩成人在线免费观看 | 99久久精品免费看国产四区 | 色婷婷一区二区三区四区 | 激情五月婷婷综合 | 久久久精品一区二区三区 | 国产精品久久久久久久久免费桃花 | 久久99精品视频 | 欧美国产日韩在线观看 | 91久久久久久久久久久久久 | 玖玖视频国产 | 国产精品久久久久久久久久久免费看 | www亚洲精品 | 黄色一级大片在线免费看产 | 99精品久久 | 91麻豆精品国产91久久久更新资源速度超快 | 在线免费观看毛片 | 一区二区在线 | 欧美精品网站 | 国产精品视频观看 | 国产综合视频 | 亚洲精品高清视频 | 一区二区高清在线观看 | 成人在线观看免费视频 | 日韩三区| 久久天天躁狠狠躁夜夜躁2014 | 日韩国产中文字幕 | 亚洲欧美在线一区 | 国产一区二区三区四区五区加勒比 | 亚洲视频中文字幕 |