成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

人工智能 新聞
YOLOv7在速度(FPS)和精度(AP)均超過其他目標檢測模型。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

前腳美團剛發布YOLOv6, YOLO官方團隊又放出新版本。

曾參與YOLO項目維護的大神Alexey Bochkovskiy在推特上聲稱:

官方版YOLOv7比以下版本的精度和速度都要好。

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

在論文中,團隊詳細對比了YOLOv7和其他變體的性能對比,并介紹v7版本的新變化。

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

話不多說,YOLOv7有多強一起來看實驗結果。

速度、精度都超越其他變體

論文中,實驗以之前版本的YOLO和最先進的目標檢測模型作為基準。

表格是YOLOv7模型在相同的參數設置下與其他版本的比較:

數據標綠代表性能相較于之前版本有所提升,參數量和計算量相較于之前版本,大部分均有所減少,AP也有所提升。

即使在云GPU模型上,最新模型仍可以保持較高的AP,與此同時計算量和參數量相較于之前模型也均有所下降。

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

YOLOv7可以很好地平衡速度與精度。

與現有的通用GPU和移動GPU的目標檢測模型進行比較:

YOLOv7在速度(FPS)和精度(AP)均超過其他目標檢測模型。

比如,在輸入分辨率為1280時,將YOLOv7與YOLOR進行比較,YOLOv7-W6的推理速度比YOLOR-P6快8fps,檢測率也提高了1%AP。

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

性能是怎么提升的?

改進實時目標檢測模型的性能,往往要從以下幾點入手:

1、更快更強的網絡架構;

2、更有效的特征集成方法;

3、更準確的檢測方法;

4、更精確的損失函數;

5、更有效的標簽分配方法;

6、更有效的訓練方法。

YOLOv7主要從4、5、6入手設計性能更好的檢測模型。

首先,YOLOv7擴展了高效長程注意力網絡,稱為Extended-ELAN(簡稱E-ELAN)

在大規模的ELAN中,無論梯度路徑長度和塊的數量如何,網絡都能達到穩定狀態。

但是如果無限地堆疊計算塊,這種穩定狀態也可能會被破壞,參數利用率也會降低。

E-ELAN對基數(Cardinality)做了擴展(Expand)、亂序(Shuffle)、合并(Merge cardinality),能在不破壞原始梯度路徑的情況下,提高網絡的學習能力。

在架構方面,E-ELAN只改變了計算塊中的體系結構,沒有改變過渡層的體系結構。

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

除了保持原來ELAN的設計架構外,E-ELAN還可以引導不同的計算塊組來學習更多樣化的特性。

而后,YOLOv7采用基于級聯的(Concatenation-based)模型縮放方法。

模型縮放是指調整模型的一些屬性,生成不同尺度的模型,以滿足不同推理速度的需求。

然而,模型縮放如果應用于基于連接的架構,當擴大或縮小執行深度時,基于連接的翻譯層的計算塊將減少或增加。

由此可以推斷,對于基于級聯的模型,不能單獨分析不同的縮放因子,必須一起考慮。

基于級聯的模型縮放方法是一個復合模型縮放方法,當縮放一個計算塊的深度因子時,同時也要計算該塊輸出通道的變化。

然后,對過渡層以相同的變化量進行寬度因子縮放,這樣就可以保持模型在初始設計時的特性,并保持最優結構。

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

在論文研究中,作者還設計了有計劃的重新參數化卷積(Planned re-parameterized convolution)

RepConv在VGG中有比較優異的性能,但當它直接應用于ResNet、DenseNet或者其他架構時,精度會明顯降低。

這是因為RepConv中的直連(Identity connection)破壞了ResNet中的殘差和DenseNet中的連接。

因此,論文研究中使用沒有直連的RepConv(RepConvN)來設計網絡結構。

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

在YOLOv7的標簽分配機制中,需要同時考慮網絡預測結果與基準,然后將軟標簽(綜合考慮,優化之后的標簽)分配到“label assigner”機制。

那么接下來,“軟標簽要分配給auxiliary head還是lead head呢?”

論文提出了一種新的標簽分配法,如下圖中的(d)(e),基于lead head預測,生成從粗到細的層次標簽,分別用于lead head和auxiliary head的學習。

圖(d)讓較淺的auxiliary head學習lead head已經學習到的信息,而輸lead head則可以更專注于為學習到的殘差信息。

而e圖中,會生成兩組軟標簽,即粗標簽和細標簽。auxiliary head不如lead head學習能力強,因此要重點優化它的召回率,避免丟失掉需要學習的信息。

YOLOv7速度精度超越其他變體,大神AB發推,網友:還得是你

目前,YOLOv7已官方開源,有興趣的伙伴可以戳下文鏈接。

責任編輯:張燕妮 來源: 量子位
相關推薦

2022-12-08 08:40:38

YOLOv7模型AI

2023-05-17 10:05:58

馬斯克推特

2024-05-28 10:04:00

2023-05-09 10:16:42

人工智能python版本

2010-01-14 10:01:40

FirefoxChrome

2009-02-09 11:35:35

Windows7操作系統

2023-02-02 11:42:34

DNS速度IP

2011-05-16 14:45:47

項目經理超越

2015-04-10 19:37:34

程序員

2021-05-08 12:10:49

Python代碼抓點圖片

2014-09-09 09:37:04

開發速度代碼質量

2010-05-04 09:19:32

IE9微軟

2020-03-17 09:47:25

數據庫工具技術

2024-01-04 14:16:05

騰訊紅黑樹Socket

2019-10-21 17:11:47

程序員不完美媽媽跳槽那些事兒

2025-02-14 08:26:47

TypeScripDeepSeek

2025-02-28 08:10:00

C#開發編碼

2025-02-27 00:22:05

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品成人 | 国产综合久久 | 伦理一区二区 | 亚洲一区 中文字幕 | 91视频进入 | 国产区视频在线观看 | 高清国产午夜精品久久久久久 | 日韩在线视频一区 | av中文字幕在线播放 | 男女免费观看在线爽爽爽视频 | 精品国产伦一区二区三区观看方式 | 日韩欧美国产精品 | 午夜男人视频 | 天天干天天玩天天操 | 久久成人18免费网站 | 日韩久久久久久 | 午夜精品 | 亚洲在线电影 | 亚洲精品电影在线 | 精品免费国产一区二区三区四区介绍 | 国产99久久久国产精品下药 | 久久99精品久久久久 | 伊人久久伊人 | 亚洲成人在线网 | 亚洲三区在线观看 | 欧美久久精品一级c片 | 精品日韩欧美一区二区 | 一级一级一级毛片 | 国产欧美精品区一区二区三区 | 亚洲精品乱码久久久久久蜜桃91 | 国产乱码久久久久久 | 一区二区久久 | 国产九九精品视频 | 亚洲精品日韩综合观看成人91 | 欧美一区二 | 2018中文字幕第一页 | 久久久久免费 | 久久精品成人 | jizz视频| 国产传媒视频在线观看 | 99re6在线视频|