成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

DeepMind新方法:訓練時間減少13倍,算力降低90%

人工智能 新聞
Talfan Evans,至今在DeepMind工作3年多,是機器學習團隊的一名研究科學家,近期研究方向是大規模模型數據訓練和任務對齊。

大幅節省算力資源,又又又有新解了!!

DeepMind團隊提出了一種新的數據篩選方法JEST——

將AI訓練時間減少13倍,并將算力需求降低90%。

圖片

簡單來說,JEST是一種用于聯合選擇最佳數據批次進行訓練的方法。

它就像一個智能的圖書管理員,在一大堆書(數據)中挑選出最適合當前讀者(模型)閱讀的幾本書(數據批次)

這樣做可以讓讀者更快地學到知識(訓練模型),還能節省時間(減少迭代次數)和精力(減少計算量)。

研究顯示,JEST大幅加速了大規模多模態預訓練,與之前的最先進水平(SigLIP)相比,迭代次數和浮點運算次數減少了10倍

圖片

對于上述結果,有網友驚呼:

新研究將成為AI訓練的游戲規則改變者!

圖片

還有人點出了關鍵

對于擔心人工智能需求過高的電網來說,這可能是個極好的消息!

圖片

那么,新方法究竟是如何運作的?接下來一起看團隊成員相關揭秘。

揭秘新方法JEST

首先,現有的大規模預訓練數據篩選方法速度慢、成本高,并且沒有考慮到批次組成或訓練過程中數據相關性的變化,這限制了多模態學習中的效率提升

因此,DeepMind團隊研究了聯合選擇數據批次而非單個樣本是否能夠加速多模態學習

研究得出了3個結論

  • 挑選好的數據批次比單獨挑選數據點更為有效
  • 在線模型近似可用于更高效地過濾數據
  • 可以引導小型高質量數據集以利用更大的非精選數據集

基于上述,JEST能夠在僅使用10%的FLOP預算的情況下超越之前的最先進水平。

圖片

這一結果是如何實現的呢?

據團隊介紹,他們在之前的工作中已展示了,對最好的50%數據進行訓練如何顯著提高FLOP效率。

圖片

而現在,新研究證明過濾更多數據(高達90%)可以產生更好的性能。

這里有三個關鍵

  • 選擇好的批次 > 選擇稍微好的數據點
  • 調整默認的ADAM超參數
  • 非常高質量(但很小)的參考數據集

具體而言,JEST是從一個更大的候選數據集中選擇最佳的訓練數據批次。

數據選擇標準上,JEST借鑒了之前關于RHO損失的研究,并結合了學習模型和預訓練參考模型的損失來評估數據點的可學習性。JEST選擇那些對于預訓練模型來說較容易,但對于當前學習模型來說較難的數據點,以此提高訓練效率和效果。

圖片

成員Nikhil進一步解釋了多模態對比學習的過程,即通過最大化文本和圖像嵌入的對齊性,同時最小化不相關數據之間的對齊性,來提高模型的性能。

利用這一點,團隊采用一種基于阻塞吉布斯采樣的迭代方法,逐步構建批次,每次迭代中根據條件可學習性評分選擇新的樣本子集。

圖片

與單獨選擇數據相比,新方法在過濾更多數據時持續改進。包括使用僅基于預訓練的參考模型來評分數據也是如此,即CLIPScore,這是離線基礎數據集篩選的流行基線。

圖片

不過,過濾更多數據會增加浮點運算次數(FLOPs),因為評分需要學習者和參考模型進行推理傳遞。

對此,團隊在數據集中緩存了預訓練的參考模型分數,他們采用了FlexiViT架構進行低分辨率評分,并在多種分辨率下進行了訓練。

圖片

這一研究證明了:

多分辨率訓練對于協調評分和學習者模型至關重要

另外,研究強調了使用高質量的精選數據集來訓練參考模型的重要性,這有助于優化大規模預訓練的數據分布,從而提升模型的泛化能力。

圖片

總而言之,相關變體JEST++FlexiJEST++的性能顯著優于許多其他先前的SOTA模型,同時使用的計算量更少。

圖片

針對大家可能的疑問:

為什么不只在用于參考模型的精選數據集上進行訓練呢?

團隊預先解釋,相關結果表明精選的參考模型是專家型模型(在某些任務上表現良好)。JEST++利用專家型參考模型,將其轉化為通用模型,在所有基準測試中都取得了改進。

圖片

最后,研究發現JEST++最終可以通過消除對預訓練數據集的任何篩選需求來簡化數據管理流程。

通過使用預訓練參考模型,在未經篩選(原始)的網絡規模數據上進行訓練,性能幾乎沒有下降

圖片

來自DeepMind

上述研究由來自DeepMind的4位成員共同完成。

Talfan Evans,至今在DeepMind工作3年多,是機器學習團隊的一名研究科學家,近期研究方向是大規模模型數據訓練和任務對齊。曾就讀于倫敦帝國理工學院戴森機器人實驗室(空間/視覺感知系統中的實時分布式推理)。

圖片

高級研究員Olivier Hénaff,至今在DeepMind工作5年多,專注于了解生物和人工智能的基本原理。在DeepMind一直研究自監督算法,近期對視覺表征如何構建我們的記憶、實現靈活的感知推理和長視頻理解感興趣。曾就讀于美國紐約大學神經科學中心博士和法國巴黎綜合理工學院碩士(數學)。

圖片

研究科學家Nikhil Parthasarathy,至今在DeepMind工作5年多,負責建立視覺感知模型,研究方向涵蓋表示學習、計算機視覺、計算神經科學和視覺感知。曾就讀于紐約大學博士,斯坦福大學本碩。

圖片

研究工程師Hamza Merzic,2018年加入DeepMind,研究領域包括主動學習、視覺想象、表征學習、強化學習、深度學習和機器人技術。他是瑞士聯邦理工學院的碩士生,并在2023年至今期間擔任博士生導師。

圖片

目前相關論文已公開,感興趣可以進一步了解。

論文:https://arxiv.org/abs/2406.17711

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-01-05 21:25:06

毫末

2020-05-14 14:21:50

谷歌AI數據

2024-07-08 09:00:00

2021-02-20 16:07:27

神經網絡AI算法

2021-09-27 10:12:42

欺騙防御rMTD網絡攻擊

2024-09-10 07:34:47

2024-11-08 09:30:00

2015-08-21 09:14:40

大數據

2010-04-01 09:30:57

2021-02-19 18:10:06

微軟WindowsWindows 10

2022-10-28 15:16:52

檢測數據

2025-01-03 11:35:42

2019-07-12 13:50:36

物聯網大數據安全

2022-07-07 10:47:16

IngressKubernetes

2018-10-07 07:00:59

2020-07-23 16:04:59

SpotMax

2024-04-08 12:18:57

訓練AI

2017-12-05 17:06:11

機器人

2024-01-23 17:33:36

2009-07-31 08:56:59

ASP.NET頁面刷新
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久一区二区三区四区五区 | 国产精品一二三区 | 特级毛片 | 91福利电影在线观看 | 久久精品亚洲精品国产欧美 | 中国人pornoxxx麻豆 | 久久中文字幕一区 | 人人叉 | 国产成人一区二区 | 日本三级全黄三级a | 999久久久 | 777zyz色资源站在线观看 | 四虎免费视频 | 老牛嫩草一区二区三区av | 久久久婷 | 亚洲在线视频 | 在线成人www免费观看视频 | 精品九九九 | 黄a大片| 日韩欧美专区 | 国产精品国产a级 | 一级a爱片久久毛片 | av免费网址 | 91美女在线观看 | 久久999 | 国产精品视频中文字幕 | 午夜免费小视频 | 成人av一区| 午夜视频一区二区 | av片免费| 一区二区三区中文字幕 | 久久最新网址 | 欧美精品 在线观看 | 老司机久久 | 视频一二三区 | 精品视频一区二区三区在线观看 | 超碰综合 | 日韩快播电影 | 亚洲精品久久久久久久久久吃药 | www.97zyz.com| 国产一区二区影院 |