成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

DeepMind:AI模型需瘦身,自回歸路線將成主流

人工智能
以Transformer為核心的自回歸注意力類程序始終難以跨過規模化這道難關。為此,DeepMind/谷歌最近建立新項目,提出一種幫助這類程序有效瘦身的好辦法。

以Transformer為核心的自回歸注意力類程序始終難以跨過規模化這道難關。為此,DeepMind/谷歌最近建立新項目,提出一種幫助這類程序有效瘦身的好辦法。

DeepMind:AI模型需瘦身,自回歸路線將成主流

DeepMind與Google Brain打造的Perceiver AR架構回避了一大嚴重占用資源的任務——將輸入與輸出的組合性質計算至潛在空間。相反,他們向潛在空間引入了“因果掩蔽”,由此實現了典型Transformer的自回歸順序。

人工智能/深度學習領域最令人印象深刻的發展趨勢之一,就是模型體量越來越大。該領域的專家表示,由于規模往往與效能直接掛鉤,所以這股體量膨脹的浪潮恐怕還將持續下去。

但項目規模越來越大,消耗的資源自然也越來越多,這就導致深度學習引發了社會倫理層面的新問題。這一困境,已經得到《自然》等主流科學期刊的關注。

也正因為如此,我們恐怕又要回歸“效率”這個老字眼——AI程序,到底還沒有進一步提效的空間?

DeepMind及Google Brain部門的科學家們,最近對自己去年推出的神經網絡Perceiver進行了一番改造,希望能提升其對算力資源的使用效率。

新程序被命名為Perceiver AR。這里的AR源自自回歸“autoregressive”,也是如今越來越多深度學習程序的又一發展方向。自回歸是一種讓機器將輸出作為程序新輸入的技術,屬于遞歸操作,借此構成多個元素相互關聯的注意力圖。

谷歌在2017年推出的大受歡迎的神經網絡Transformer,也同樣具有這種自回歸特性。事實上,后來出現的GPT-3以及Perceiver的首個版本都延續了自回歸的技術路線。

在Perceiver AR之前,今年3月推出的Perceiver IO是Perceiver的第二個版本,再向前追溯就是去年這個時候發布的Perceiver初版了。

最初的Perceiver創新點,在于采用Transformer并做出調整,使其能夠靈活吸納各種輸入,包括文本、聲音和圖像,由此脫離對特定類型輸入的依賴。如此一來,研究人員即可利用多種輸入類型開發相應的神經網絡。

作為時代大潮中的一員,Perceiver跟其他模型項目一樣,也都開始使用自回歸注意力機制將不同輸入模式和不同任務域混合起來。此類用例還包括谷歌的Pathways、DeepMind的Gato,以及Meta的data2vec。

到今年3月,初版Perceiver的締造者Andrew Jaegle及其同事團隊又發布了“IO”版本。新版本增強了Perceiver所支持的輸出類型,實現了包含多種結構的大量輸出,具體涵蓋文本語言、光流場、視聽序列乃至符號無序集等等。Perceiver IO甚至能夠生成《星際爭霸2》游戲中的操作指令。

在這次的最新論文中,Perceiver AR已經能夠面向長上下文實現通用自回歸建模。但在研究當中,Jaegle及其團隊也遇到了新的挑戰:模型應對各類多模式輸入和輸出任務時,該如何實現擴展。

問題在于,Transformer的自回歸質量,以及任何同樣構建輸入到輸出注意力圖的程序,都需要包含多達數十萬個元素的巨量分布規模。

這就是注意力機制的致命弱點所在。更準確地說,需要關注一切才能建立起注意力圖的概率分布。

正如Jaegle及其團隊在論文中提到,當輸入當中需要相互比較的事物數量的增加,模型對算力資源的吞噬也將愈發夸張:

這種長上下文結構與Transformer的計算特性之間相互沖突。Transformers會反復對輸入執行自注意力操作,這會導致計算需求同時隨輸入長度而二次增長,并隨模型深度而線性增加。輸入數據越多,觀察數據內容所對應的輸入標記就越多,輸入數據中的模式也變得愈發微妙且復雜,必須用更深的層對所產生的模式進行建模。而由于算力有限,因此Transformer用戶被迫要么截斷模型輸入(防止觀察到更多遠距模式),要么限制模型的深度(也就剝奪了它對復雜模式進行建模時的表達能力)。

實際上,初版Perceiver也曾經嘗試過提高Transformers的效率:不直接執行注意力,而是對輸入的潛在表示執行注意力。如此一來,即可“(解耦)處理大型輸入數組的算力要求同大深度網絡所對應的算力要求”。

Perceiver AR與標準Transformer深度網絡、增強型Transformer XL間的比較。

在潛在部分中,輸入表示經過了壓縮,因此成為一種效率更高的注意力引擎。這樣,“對于深度網絡,大部分計算就實際發生在自注意力堆棧上”,而無需對無數輸入執行操作。

但挑戰仍然存在,因為潛在表示不具備順序概念,所以Perceiver無法像Transformer那樣生成輸出。而順序在自回歸中至關重要,每個輸出都應該是它之前輸入的產物,而非之后的產物。

研究人員們寫道,“但由于每個潛在模型都關注所有輸入,而不管其位置如何,所以對于要求每個模型輸出必須僅依賴其之前輸入的自回歸生成來說,Perceiver將無法直接適用。”

而到了Perceiver AR這邊,研究團隊更進一步,將順序插入至Perceiver當中,使其能夠實現自動回歸功能。

這里的關鍵,就是對輸入和潛在表示執行所謂“因果掩蔽”。在輸入側,因果掩蔽會執行“交叉注意”,而在潛在表示這邊則強制要求程序只關注給定符號之前的事物。這種方法恢復了Transformer的有向性,且仍能顯著降低計算總量。

結果就是,Perceiver AR能夠基于更多輸入實現與Transformer相當的建模結果,但性能得以極大提高。

他們寫道,“Perceiver AR可以在合成復制任務中,完美識別并學習相距至少 100k個標記的長上下文模式。”相比之下,Transformer的硬限制為2048個標記,標記越多則上下文越長,程序輸出也就越復雜。

與廣泛使用純解碼器的Transformer和Transformer-XL架構相比,Perceiver AR的效率更高,而且能夠根據目標預算靈活改變測試時實際使用的算力資源。

論文寫道,在同等注意力條件下,計算Perceiver AR的掛鐘時間要明顯更短,且能夠要同等算力預算下吸納更多上下文(即更多輸入符號):

Transformer的上下文長度限制為2048個標記,相當于只支持6個層——因為更大的模型和更長的上下文需要占用巨量內存。使用同樣的6層配置,我們可以將Transformer-XL內存的總上下文長度擴展至8192個標記。Perceiver AR則可將上下文長度擴展至65k個標記,如果配合進一步優化,甚至有望突破100k。

所有這一切,都令計算變得更加靈活:“我們能夠更好地控制給定模型在測試過程中產生的計算量,并使我們能夠在速度與性能間穩定求取平衡。”

Jaegle及其同事還寫道,這種方法適用于任意輸入類型,并不限于單詞符號。例如可以支持圖像中的像素:

只要應用了因果掩蔽技術,相同過程就適用于任何可以排序的輸入。例如,通過對序列中每個像素的R、G、B顏色通道進行有序或亂序解碼,即可按光柵掃描順序為圖像的RGB通道排序。

作者們發現Perceiver中蘊藏著巨大潛力,并在論文中寫道,“Perceiver AR是長上下文通用型自回歸模型的理想候選方案。”

但要想追求更高的計算效率,還需要解決另一個額外的不穩定因素。作者們指出,最近研究界也在嘗試通過“稀疏性”(即限制部分輸入元素被賦予重要性的過程)來減少自回歸注意力的算力需求。

在相同的掛鐘時間內,Perceiver AR能夠在層數相同的情況下運行更多來自輸入的符號,或者在輸入符號運行數量相同的情況下顯著縮短計算時長。作者認為,這種出色的靈活性有望為大型網絡找到一種通用的提效方法。

但稀疏性也有自己的缺點,主要就是過于死板。論文寫道,“使用稀疏性方法的缺點在于,必須以手動調整或者啟發式方法創建這種稀疏性。這些啟發式方法往往只適用于特定領域,而且往往很難調整。”OpenAI與英偉達在2019年發布的Sparse Transformer就屬于稀疏性項目。

他們解釋道,“相比之下,我們的工作并不需要在注意力層上強制手動創建稀疏模式,而是允許網絡自主學習哪些長上下文輸入更需要關注、更需要通過網絡進行傳播。”

論文還補充稱,“最初的交叉注意力操作減少了序列中的位置數量,可以被視為一種稀疏學習形式。”

以這種方式學習到的稀疏性本身,也許會在未來幾年內成為深度學習模型工具包中的又一強大利器。

責任編輯:未麗燕 來源: 至頂網
相關推薦

2025-04-22 08:08:37

2023-06-28 08:36:44

大語言模型人工智能

2024-04-26 12:51:48

2016-05-05 10:21:42

2025-04-21 08:20:00

視覺模型訓練

2024-01-18 10:57:35

AIM模型NLP

2023-11-27 12:11:32

2009-10-16 16:52:16

電纜布線技術

2024-08-20 09:13:10

2016-03-14 13:14:34

物聯網物聯網技術

2009-10-15 16:33:04

智能布線管理系統

2024-05-23 16:56:58

2021-12-17 10:09:47

編碼器語言模型DeepMind

2017-12-22 17:40:27

云計算混合云多云

2024-10-23 14:04:24

2022-11-24 17:00:01

模型ARDL開發

2010-11-11 09:04:05

跨平臺移動開發

2010-11-10 09:15:54

云計算

2017-03-02 13:00:47

超融合技術數據中心

2010-01-25 15:27:43

刀片式SAN交換機
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久久久久国产精品免费免费狐狸 | 成人综合视频在线 | 亚洲一区二区精品视频 | 中文在线一区二区 | 久久乐国产精品 | 日本成人三级电影 | 久久久免费 | 国产精品免费大片 | 欧美激情在线播放 | 亚洲免费影院 | 91久久北条麻妃一区二区三区 | 一级免费视频 | 日本一区二区视频 | 免费啪啪 | 精品成人免费一区二区在线播放 | 四虎永久 | 日韩一级免费电影 | 久草青青草 | 青青久久久 | 91影视| av中文在线 | 在线亚洲免费视频 | 欧美精品网站 | 亚洲小视频在线观看 | 日韩一级一区 | www.色综合 | 日本精品一区二区 | 成人教育av | 精品无码久久久久久久动漫 | 特黄毛片 | 黄色片免费看视频 | 国产精品1区 | jizz中国日本 | 中文字幕亚洲无线 | 国产精品色 | 欧美视频在线观看 | 国产一区二区三区视频 | 羞羞视频一区二区 | 日韩精品一区在线观看 | 欧美一区二区三区在线观看 | 黑人精品 |