成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

原作者帶隊,LSTM卷土重來之Vision-LSTM出世

人工智能 新聞
與 DeiT 等使用 ViT 和 Vision-Mamba (Vim) 方法的模型相比,ViL 的性能更勝一籌。

AI 領域的研究者應該還記得,在 Transformer 誕生后的三年,谷歌將這一自然語言處理屆的重要研究擴展到了視覺領域,也就是 Vision Transformer。后來,ViT 被廣泛用作計算機視覺中的通用骨干。

這種跨界,對于前不久發布的 xLSTM 來說同樣可以實現。最近,享譽數十年的 LSTM 被擴展到一個可擴展且性能良好的架構 ——xLSTM,通過指數門控和可并行化的矩陣內存結構克服了長期存在的 LSTM 限制?,F在,這一成果已經擴展到視覺領域。

圖片

xLSTM和 Vision-LSTM 兩項研究均由 LSTM 原作者帶隊,也就是 LSTM 的提出者和奠基者 Sepp Hochreiter。

在最近的這篇論文中,Sepp Hochreiter 等人推出了 Vision-LSTM(ViL)。ViL 包含一堆 xLSTM 塊,其中奇數塊從上到下、偶數塊則從下到上處理補丁 token 序列。

圖片

  • 論文題目:Vision-LSTM: xLSTM as Generic Vision Backbone
  • 論文鏈接:https://arxiv.org/abs/2406.04303
  • 項目鏈接: https://nx-ai.github.io/vision-lstm/

正如 xLSTM 誕生之時,作者希望新架構能夠撼動 Transformer 在語言模型領域的江山。這一次,闖入視覺領域的 Vision-LSTM 也被寄予厚望。

研究者在論文中表示:「我們的新架構優于基于 SSM 的視覺架構,也優于 ImageNet-1K 分類中的優化 ViT 模型。值得注意的是,在公平的比較中,ViL 的表現優于經過多年超參數調整和 Transformer 改進的 ViT 訓練 pipeline?!?/span>

對于需要高分辨率圖像以獲得最佳性能的任務,如語義分割或醫學成像, ViL 極具應用潛力。在這些情況下,Transformer 因自注意力的二次復雜性而導致計算成本較高,而 ViL 的線性復雜性不存在這種問題。研究者還表示,改進預訓練方案(如通過自監督學習)、探索更好的超參數設置或從 Transformer 中遷移技術(如 LayerScale )都是 ViL 的可探索方向。

ViT 與 ViL

語言建模架構 —— 如 Transformer 或最近的狀態空間模型 Mamba,通常被應用到計算機視覺領域,以利用它們強大的建模能力。

然而,在自然語言處理中,通過離散詞匯表(Discrete vocabulary),輸入的句子通常被編碼成代表詞或常見子詞的 token。

為了將圖像編碼成一組 token,Vision Transformer(ViT)提出將輸入圖像分組成非重疊的補丁(例如 16x16 像素),將它們線性投影成所謂的補丁 token 序列,并向這些 token 添加位置信息。

然后,這個序列就可以被語言建模架構處理了。

擴展長短期記憶(xLSTM)最近被引入作為一種新的語言建模架構,可以說是 LSTM 在 LLM 時代的復興,與 Transformer 和狀態空間模型(SSMs)等相媲美。

現有的 Transformer 或狀態空間模型的視覺版本,例如 ViT 或 Vision Mamba,已經在各種計算機視覺任務中取得了巨大成果。

使用 xLSTM 作為核心組建的 ViL 使用簡單的交替設計,從而可以有效地處理非序列輸入(如圖像),而無需引入額外的計算。

類似于 SSMs 的視覺適應,ViL 展示了關于序列長度的線性計算和內存復雜度,這使得它在高分辨率圖像的任務中展現極佳的作用,如醫學成像、分割或物理模擬。

相比之下,ViT 的計算復雜度由于自注意力機制而呈二次方增長,使得它們在應用于高分辨率任務時成本高昂。

交替 mLSTM 塊并行

Vision-LSTM(ViL)是一個用于計算機視覺任務的通用骨干,它從 xLSTM 塊殘差構建,如圖 1 所示。

與 ViT 類似,ViL 首先通過共享線性投影將圖像分割成非重疊的補丁,然后向每個補丁 token 添加可學習的定位嵌入。ViL 的核心是交替的 mLSTM 塊,它們是可完全并行化的,并配備了矩陣內存和協方差更新規則。

奇數 mLSTM 塊從左上到右下處理補丁 token,而偶數塊則從右下到左上。

ImageNet-1K 實驗

研究團隊在 ImageNet-1K 上進行了實驗:它包含 130 萬張訓練圖像和 5 萬張驗證圖像,每張圖像屬于 1000 個類別之一。

對比實驗集中在使用序列建模骨干的模型上,而該模型在大致相當的參數數量上是可比較的。

他們在 224x224 分辨率上訓練 ViL 模型,使用余弦衰減調度,1e-3 的學習率訓練了 800 個周期(tiny, tiny+)或 400 個周期(small, small+, base),具體見下方表 5.

圖片

為了對 Vision Mamba(Vim)進行公平比較,研究人員向模型內添加了額外的塊以匹配 tiny 和小型變體(分別表示為 ViL-T + 和 ViL-S+)的參數數量。

需要注意的是,由于 ViL 以交替的方式遍歷序列,而 Vim 則在每個塊中遍歷序列兩次,因此 ViL 所需的計算量遠少于 Vim。

盡管 Vim 使用了優化的 CUDA 內核(而 mLSTM 目前還沒有這樣的內核),但這仍然成立,并且會進一步加速 ViL 的速度。

如表 4 所示的運行時間對比,在其中兩項的比較重,ViL 比 Vim 快了 69%。

圖片

新秀 ViL 相比于 ViTs 如何?

雖然 ViL 首次出場,但仍是展現了極佳的潛力。

由于 ViTs 在視覺社區中已經得到了廣泛的認可,它們在過去幾年經歷了多次優化周期。

因為這項工作是首次將 xLSTM 應用于計算機視覺,研究人員并不期望在所有情況下都超過 ViTs 多年的超參數調整。

即便如此,表 1 中的結果顯示,ViL 在小規模上相比于經過大量優化的 ViT 協議(DeiT, DeiT-II, DeiT-III)仍是顯示出較良好的結果,其中只有訓練時間是 ViL-S 兩倍的 DeiT-III-S 表現略好一點。

在「base」規模上,ViL 超越了最初的 ViT 模型,并取得了與 DeiT 相當的結果。

需要注意的是:由于在這個規模上訓練模型的成本很高,ViL-B 的超參數遠非最佳。作為參考,訓練 ViL-B 大約需要 600 個 A100 GPU 小時或在 32 個 A100 GPU 上的 19 個小時。

通過在「長序列微調」設置中微調模型,性能可以進一步提高,該設置通過使用連續補丁 token 之間 50% 的重疊,將序列長度增加到 729,對模型進行 30 個周期的微調。

盡管沒有利用卷積固有的歸納偏置,ViL 還是展現出了與基于 CNN 的模型(如 ConvNeXt)相當的性能。

塊設計

該團隊研究了設計 ViL 塊的不同方式,如圖 2 所示。

  •  普通且單向的 xLSTM 塊未能達到期待的性能,因為 xLSTM 的自回歸性質并不適合圖像分類。
  •  以雙向方式遍歷塊 —— 即在每個塊中引入第二個 mLSTM 層,該層向后遍歷序列(類似于 Vim),提高了性能,但也需要更多的參數和 FLOPS。
  •  共享前向和后向 mLSTM 的參數使模型在參數上更高效,但仍然需要更多的計算并超載這些參數,而這最終也會導致性能下降。
  •  使用交替塊在保持計算和參數效率的同時提高了性能。

該團隊還探索了四向設計,這指的是按行(兩個方向)和按列(兩個方向)遍歷序列。雙向僅按行遍歷序列(兩個方向)。

圖 2 可視化了不同的遍歷路徑。

圖片圖片

由于雙向和四向塊的成本增加,這項研究是在設置大幅減少的條件中進行的。

研究人員在 128x128 分辨率下,對包含僅來自 100 個類別的樣本的 ImageNet-1K 的一個子集進行 400 個周期的訓練。這是特別必要的,因為四向實現方法與 torch.compile(來自 PyTorch 的一個通用速度優化方法)不兼容,這會導致更長的運行時間,如表 2 最后一列所示。

由于此技術限制,該團隊最終了選擇交替雙向塊作為核心設計。

圖片

分類設計

為了使用 ViT 進行分類,需要將 token 序列匯集成一個 token,然后將其作為分類頭的輸入。

最常見的匯集方法是:(i) 在序列的開頭添加一個可學習的 [CLS] token,或 (ii) 平均所有補丁 token,生成一個 [AVG] token。使用 [CLS] 還是 [AVG] token 通常是一個超參數,兩種變體的性能相當。相反,自回歸模型通常需要專門的分類設計。例如,Vim 要求 [CLS] token 位于序列的中間,如果采用其他分類設計,如 [AVG] token 或在序列的開始和結束處使用兩個 [CLS] token,則會造成嚴重的性能損失。

基于 ViL 的自回歸特性,研究者在表 3 中探討了不同的分類設計。

圖片

[AVG] 是所有補丁 token 的平均值,「Middle Patch 」使用中間的補丁 token,「Middle [CLS]」使用序列中間的一個 [CLS] token,「Bilateral [AVG]」使用第一個和最后一個補丁 token 的平均值。

可以發現的是, ViL 分類設計相對穩健,所有性能都在 0.6% 以內。之所以選擇 「Bilateral [AVG]」而不是 「Middle [CLS]」,因為 ImageNet-1K 有中心偏差,即物體通常位于圖片的中間。通過使用 「Bilateral [AVG]」,研究者盡量避免了利用這種偏差,從而使模型更具通用性。

為了與之前使用單個 token 作為分類頭輸入的架構保持可比性,研究者對第一個和最后一個 token 進行了平均處理。為了達到最佳性能,建議將兩個標記合并(「Bilateral Concat」),而不是取平均值。

這類似于 DINOv2 等自監督 ViT 的常見做法,這些是通過分別附加在 [CLS] 和 [AVG] token 的兩個目標來進行訓練的,因此可以從連接 [CLS] 和 [AVG] token 的表征中獲益。視覺 SSM 模型也探索了這一方向,即在序列中分散多個 [CLS] token,然后將其作為分類器的輸入。此外,類似的方向也可以提高 ViL 的性能。

更多研究細節,請參考原論文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-05-10 09:16:01

模型數據

2014-05-09 10:12:57

2048移動應用

2024-08-12 09:32:12

2025-03-20 08:34:14

2017-02-15 08:20:13

2021-02-08 23:25:40

DanaBot惡意軟件木馬

2021-04-08 09:07:11

VR互聯網發展虛擬現實

2017-11-14 09:28:05

2011-08-03 15:04:42

2021-12-27 11:08:14

微軟MIT協議

2023-12-27 11:41:21

2012-05-11 09:39:23

云存儲Google

2009-07-21 16:59:19

數據中心IBM刀片服務器

2024-01-08 13:49:00

2015-09-21 09:23:50

2022-08-18 15:59:59

勒索軟件黑客

2017-06-07 15:32:15

PCProsumer筆記本

2011-08-18 09:26:06

Server Fabr虛擬化服務器

2017-10-27 18:20:59

程序員

2019-01-21 16:37:08

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: www.久| 成av人电影在线 | 欧洲亚洲精品久久久久 | 欧美不卡一区二区三区 | 亚洲成人免费视频 | 成人av一区| 国产一区二区在线播放视频 | 国产一区二区小视频 | 精品欧美一区二区精品久久 | 欧美亚洲国产日韩 | 久久国产精品首页 | 99pao成人国产永久免费视频 | 欧美日韩一区不卡 | 欧美a级成人淫片免费看 | 久久天天躁狠狠躁夜夜躁2014 | 久久久精品一区 | 一二三区视频 | 欧美视频免费在线 | 国产久| 日韩二三区| 欧美精品乱码久久久久久按摩 | 在线播放亚洲 | 天天射天天干 | 欧美中文字幕一区二区三区 | 亚洲高清视频在线 | 91视视频在线观看入口直接观看 | 伦理二区 | www四虎影视 | 操亚洲 | 黄色免费三级 | 亚洲一区二区三区在线播放 | 国产精品久久久久久52avav | 亚洲精品成人 | 91成人精品| av片在线观看 | 毛片视频免费观看 | 欧美久久精品 | 久久久久国产一区二区三区 | 欧美男人天堂 | 99久久婷婷国产综合精品首页 | 懂色一区二区三区免费观看 |