成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

模型壓縮:CNN和Transformer通用,修剪后精度幾乎無損,速度提升40%

人工智能 新聞
隨著目標檢測的蓬勃發展,近年來提出了幾種深度卷積神經網絡模型,例如R-CNN、SSD和YOLO等。然而,隨著網絡變得越來越復雜,這些模型的規模不斷增加,這使得在現實生活中將這些模型部署到嵌入式設備上變得越來越困難。因此,開發一種高效快速的物體檢測模型以在不影響目標檢測質量的情況下減小參數大小至關重要。

本文經計算機視覺研究院公眾號授權轉載,轉載請聯系出處。

PART/1 前言  

深度學習模型在目標檢測的性能上取得了重大突破。然而,在傳統模型中,例如Faster R-CNN和YOLO,由于計算資源有限和功率預算緊張,這些網絡的規模使其難以部署在嵌入式移動設備上。

圖片

深度學習領域的加速發展極大地促進了目標檢測的發展,其在人臉檢測、自動駕駛、機器人視覺和視頻監控等方面的廣泛應用。隨著目標檢測的蓬勃發展,近年來提出了幾種深度卷積神經網絡模型,例如R-CNN、SSD和YOLO等。然而,隨著網絡變得越來越復雜,這些模型的規模不斷增加,這使得在現實生活中將這些模型部署到嵌入式設備上變得越來越困難。因此,開發一種高效快速的物體檢測模型以在不影響目標檢測質量的情況下減小參數大小至關重要。

PART/2 摘要總結 

今天我們分享的技術,是通過減少網絡信道的傳統信道修剪方法難以有效地修剪具有深度卷積層和某些有效模塊(如流行的反向殘差塊)的有效CNN模型。由于存在一些歸一化層,通過減少網絡深度的先驗深度修剪方法不適合于修剪一些有效的模型。此外,通過直接移除激活層來微調子網會破壞原始模型權重,阻礙修剪后的模型實現高性能。

為了解決這些問題,研究者提出了一種新的有效模型深度修剪方法。新方法為子網提出了一種新的塊修剪策略和漸進訓練方法。此外,將修剪方法擴展到視覺Transformer模型。

圖片

最終實驗結果表明,在各種修剪配置中,新方法始終優于現有的深度修剪方法。將新方法應用于ConvNeXtV1,獲得了三個修剪后的ConvNeXtV1模型,這些模型超過了大多數具有可比推理性能的SOTA有效模型。新方法還在視覺Transformer模型上實現了最先進的修剪性能。

PART/3 動機  

Network Pruning

神經網絡在計算機視覺領域已被廣泛應用,表現出非凡的能力。然而,復雜的網絡架構對高效的實時部署提出了挑戰,并需要大量的計算資源和能源成本。在端側和邊緣側部署網絡具體的挑戰:

  • 模型體積大;
  • FLOPs(float-point operations,浮點操作);
  • 耗能;
  • 處理器架構和處理速度;
  • 內存占用;
  • 推理時延;

這些挑戰可以通過網絡壓縮等優化來克服。網絡剪枝(Network Pruning)是網絡壓縮主要技術之一,是一種減小內存大小和帶寬的重要技術。剪枝就是通過去除網絡中冗余的通道(channels),濾波器(filters),神經元節點( neurons), 網絡層(layers)以得到一個更輕量級的網絡,同時不影響性能。

剪枝的不同分類:

  • 根據網絡元素類型,可以分為神經元剪枝和連接剪枝;
  • 根據剪枝前后網絡結構是否是改變,可以分為結構化剪枝和非結構化剪枝;
  • 根據在推理階段是否有剪枝,可以分為靜態剪枝和動態剪枝;

結構化剪枝可以包括神經元剪枝和連接剪枝,但是是改變了剪枝前的網絡結構。非結構化剪枝并沒有改變網絡結構,而是將分支權重改為0,這樣權重為0的分支對整個網絡沒有影響,從而相當于減掉了該分支。如果觀察到在某些迭代權重為0的分支對本輪迭代作用很大(影響性能),可以動態恢復非結構化剪枝造成的為零權重,提供網絡性能。神經元剪枝會改變網絡結構,屬于結構化剪枝。連接剪枝,在權重設置為0并沒有改變網絡結構時屬于非結構化剪枝,在連接刪除改變網絡結構時屬于結構化剪枝。

Structural Reparameterization

在block內不存在非線性激活函數的情況下,結構重新參數化技術有助于將多個卷積層合并為單個卷積層。這種合并有效地減少了神經網絡在推理過程中的內存需求,從而加速了模型推理。RepVGG區分了訓練和測試結構,使普通網絡能夠超越ResNet的性能。此外,DBB將多分支結構合并為一個卷積,顯著地超過了傳統多分支單元的速度。

Neural Architecture Search (NAS)

既然網絡不是設計出來的,我們要搜,那么怎么搜網絡結構呢?理解這個問題,你就能了解NAS的最基本的思想。想象你是一個考試命題組的出題人,你要出高考題,那怎么出題呢?首先這是高考,你肯定只能出高中生學過的內容,所以需要框定一個出題的范圍,這便是搜索空間。確定了出題范圍,我們還需要知道到底怎么出題,到底是出選擇題好呢,還是填空題好呢?這是出題的策略,對應到這個問題上,就是搜索策略?,F在題也出完了,但是我們還需要知道這個考卷的題目出的好不好,一個好的高考試卷應該有一定的區分度!所以我們需要一個評判的標準去了解這個題目出的好不好,這個標準和可以是專家評議,或者學生調研等等,也就是相當于我們需要給我們一個評價的指標。

圍繞搜索空間、搜索策略以及評價搜索的指標三個維度展開搜索最優的網絡,先確定在哪些模塊(卷積,池化等等)里面搜索組合一個網絡,然后用什么樣的方式組合我們的網絡,最后得出的網絡我們如何評價它是否好用。這便是NAS算法自動搜索的基本思想。

PART/新框架詳解  

深度修剪方法旨在通過提出新的具有重新參數化技術的塊修剪策略來減少模型深度,而不是直接省略塊。如下圖所示,塊修剪策略在塊合并中將復雜而緩慢的塊轉換為簡單而快速的塊。對于塊,將激活層替換為標識層,將LayerNorm(LN)或GroupNorm(GN)層替換為BatchNorm(BN)層,并在塊末尾插入帶有BatchNorm層的激活層,以創建重新參數化的條件。然后,重新參數化技術可以合并BatchNorm層、相鄰的卷積或全連接層,并跳過連接,如下圖所示:

圖片

Depth Pruner on CNN

將新方法應用于CNN模型可以參考上圖所示的管道。應該先找到基本塊,并參考上圖中的修剪塊來設計相應的修剪塊。對于塊中的激活層,將其替換為標識層。對于塊中不是BatchNorm層的規范化層,將其替換為BatchNorm圖層,否則無需執行任何操作。

最后,將在塊的末尾插入一個帶有BatchNorm層的激活層。如果像ResNet34塊這樣的位置已經存在激活層,則只需要在塊末尾的激活層之后插入BatchNorm層。修剪塊完成后,回顧超網訓練、子網搜索、子網訓練和子網合并過程。將獲得修剪后的CNN模型。對于普通的CNN模型,可以定義可以包括兩個或多個順序卷積層的塊。

Depth Pruner on Vision Transformer

研究者還將提出的深度修剪器應用于Vision Transformer模型。Vision Transformer塊通常具有多頭自注意(MHSA)模塊和包括兩個全連接層的MLP模塊。特別是,利用DeiT作為展示修剪流程的案例。如上圖所示,為了構建Supernet,在原始模型的LN和活化(GELU)層旁邊添加BN旁路,并在剩余添加操作后插入GELU和BN塊。經過子網搜索和子網訓練,獲得了子網,其原始LN和修剪塊的GELU操作都被BN取代。添加殘余物后,連接GELU&BN塊。然后合并子網以獲得快速修剪的模型,如上圖所示。

PART/5 實驗及可視化  

下表與一些常見的有效模型進行了比較,因為ConvNeXtV1沒有壓縮方法。在AMD平臺上使用表中較慢的網絡EfficientFormerV2-S2作為基準,測試所有網絡的速度。作者將模型分為不同 Level ,深度剪枝方法在不同 Level 上實現了可比速度下的更高精度:

圖片

在今天分享中,研究者為有效的CNN和Vision Transformer模型提供了一個統一的深度修剪器,以在深度維度上修剪模型。深度修剪器包括四個步驟,即超網訓練、子網搜索、子網訓練和子網合并。提出了一種新的塊修剪方法和漸進訓練策略,以更好地利用基線模型權重。在子網合并過程中,使用重新參數化技術使子網變得更淺、更快。將新方法應用于幾個CNN模型和transformer模型。SOTA修剪性能證明了新方法的優越性。未來,研究者們將在更多的Transformer模型和任務上探索新方法。

圖片

責任編輯:張燕妮 來源: 計算機視覺研究院
相關推薦

2023-10-10 08:52:43

PNG類型Chinchilla

2023-07-29 13:26:51

模型AI

2023-05-30 21:33:13

MetaAI 模型

2020-10-05 22:00:59

深度學習編程人工智能

2021-03-18 15:29:10

人工智能機器學習技術

2024-10-21 12:30:52

2021-03-10 15:19:01

工具代碼開發

2017-08-31 10:48:59

CNN 模型壓縮算法

2024-03-11 12:20:56

AI訓練

2025-03-10 09:22:00

2024-03-14 09:57:35

華為模型

2013-11-11 09:08:34

40 GbE40G以太網

2024-04-03 10:00:44

Rust編譯開發

2020-06-09 10:15:21

模型人工智能自然語言

2025-03-05 00:22:00

2025-03-05 00:15:00

2023-07-18 14:19:00

模型AI

2021-08-10 16:01:18

模型人工智能深度學習

2025-04-21 09:07:00

2025-04-25 09:05:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 污污的网站在线观看 | 天天干天天操 | 亚洲一区二区三区在线播放 | 免费在线国产视频 | 久久久久国产精品午夜一区 | 亚洲精品久久久久久一区二区 | 青青草一区二区 | 91干b| 久久99这里只有精品 | 美女黄网 | 中文字幕精品视频在线观看 | 免费国产视频在线观看 | 中文字幕日韩一区 | 欧美中文在线 | 国产一区二区三区在线 | 超碰在线人人 | 欧美一区二区三区大片 | 性高湖久久久久久久久aaaaa | 99久久精品国产一区二区三区 | 日韩欧美在线一区 | 欧美日韩亚洲二区 | 日韩欧美高清dvd碟片 | 国产欧美一区二区三区在线看 | 亚洲免费观看视频网站 | 国产一级在线观看 | 国产在线精品一区二区三区 | 午夜寂寞福利视频 | 精品国产免费人成在线观看 | 久久这里只有 | 亚洲国产精品第一区二区 | 亚洲成人精品国产 | 久草资源| 色婷婷影院 | 精品国产乱码久久久久久丨区2区 | 精品久久久久久国产 | 久久久精品影院 | 日韩欧美在线视频 | 日韩不卡在线 | 天堂av中文在线 | 啪啪免费网 | 精品一区二区三区在线观看 |