成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

中科院版「分割一切」模型來了,比Meta原版提速50倍 | GitHub 2.4K+星

人工智能
最近中科院團隊開源了FastSAM模型,能以50倍的速度達到與原始SAM相同的效果,并實現25FPS的實時推理。

比Meta的「分割一切模型」(SAM)更快的圖像分割工具,來了!

最近中科院團隊開源了FastSAM模型,能以50倍的速度達到與原始SAM相同的效果,并實現25FPS的實時推理。

該成果在Github已經獲得2.4K+次星標,在Twitter、PaperswithCode等平臺也受到了廣泛關注。

圖片

相關論文預印本現已發表。

以下內容由投稿者提供

圖片

視覺基礎模型 SAM[1]在許多計算機視覺任務中產?了重?影響。它已經成為圖像分割、圖像描述和圖像編輯等任務的基礎。

然?,其巨?的計算成本阻礙了它在實際場景中的?泛應?。

最近,中科院?動化所提出并開源了?種加速替代?案 FastSAM。

通過將分割?切任務重新劃分為全實例分割和提?指導選擇兩個?任務,?帶實例分割分?的常規 CNN 檢測器以?出50倍的運?速度實現了與SAM?法相當的性能,是?個實時分割?切的基礎模型。

圖片

意義與動機

SAM 的出現帶動了 “分割?切”(Segment Anything)任務的發展。這?任務由于其泛化性和可擴展性,有很?可能成為未來?泛視覺任務的基礎。

FastSAM 為該任務提供了?套實時解決?案,進?步推動了分割?切模型的實際應?和發展。

本?將“分割?切”任務解耦為全實例分割和提?引導選擇兩階段,通過引???先驗結構,在提速 50 倍的情況下實現了與 SAM 相近的表現。

FastSAM 的優秀表現為視覺任務的架構選擇提供了新的視角——對于特定任務,專用模型結構或許在計算效率和精確度上仍具有優勢。

從模型壓縮的?度看,FastSAM 也證明了基于大模型產生高質量數據,通過引???先驗結構大幅降低計算復雜度的路徑的可?性。

示例

Web DEMO

在 HuggingFace 的 Space 中,你可以快速體驗 FastSAM 的分割效果。

你可以上傳一張自定義的圖片,選擇模式并設置參數,點擊分割按鈕,就可以得到一個滿意的分割結果。

現在支持一切模式和點模式的交互,其他模式將在未來嘗試支持。在 Replicate 上已支持所有模式的在線體驗。

圖片

圖片

多種交互?式

FastSAM目前共支持三種交互方式。

圖片

多點交互模式

FastSAM ?持多個帶有前景/背景標簽的點交互模式,可以很好地適應不同場景的應?需求。

以缺陷檢測場景為例,只需對缺陷部位添加前景點,對正常藥丸部分添加背景點,即可準確地檢測出物體缺陷。

圖片

框交互模式

FastSAM 也?持框交互模式。也以缺陷檢測為例,只需對缺陷?致位置進?框選,即可準確檢測出物體缺陷。

圖片

?本交互模式

FastSAM 也?持并開源了?本交互模式。通過不同的?本提示,FastSAM可以準確分割出不同顏?的?狗。

圖片

工作原理

如下圖所示,FastSAM 的網絡架構可分為兩個階段:全實例分割和提示引導選擇。

圖片

在全實例分割階段,FastSAM 使用卷積神經網絡來對圖像中的所有對象或區域進行劃分。

在提示引導選擇階段,它采用包括點提示、框提示和文本提示的各種提示來選出關注對象。

與基于Transformer的方法不同,FastSAM融合了與視覺分割任務緊密相關的先驗知識,例如局部連接和對象分配策略。這使得它以更低地參數量和計算量下更快地收斂。

定性與定量分析

測試結果表明,FastSAM各方面的表現完全不輸于Meta的原始版本。

速度

從表中可以看出,FastSAM 取得了遠超 SAM 的速度表現,在「分割?切」模式下,SAM的速度會受到均勻點提?數量的影響,? FastSAM 由于結構的特點,運?時間不隨點提?數量的增加?增加,這使得它成為「分割?切」模式的更好選擇。

圖片

同時,由于 FastSAM 在結構設計中利?了?的先驗知識,使得它在實時推理的同時也具備了與 SAM 相當的性能。

邊緣檢測

下圖展?了具有代表性的邊緣檢測結果。經過定性觀察可以看出,盡管FastSAM的參數明顯較少(只有68M),但它也能產?很?質量的邊緣檢測結果。

圖片

從下表可以看出,FastSAM 取得了與 SAM 類似的性能。與 Ground Truth 相?,FastSAM和 SAM 都傾向于預測更多的邊緣,這種偏差在表中得到了定量的反映。

圖片

物體候選

從下表可以看出,FastSAM 在 bbox AR@1000 的表現上超過了計算量最?的 SAM 模型(SAM-H E64),僅次于在 LVIS 數據集上監督訓練的 ViTDet-H[2]。

圖片

可視化結果

SA-1B 分割結果:下圖展?了 FastSAM 在 SA-1B 數據集上不同場景和掩碼數量時的分割結果。

圖片

下游應?對?:下?三張圖對?了 FastSAM 和 SAM 在異常檢測、顯著物體分割和建筑物提取三個下游任務的效果,FastSAM 在不同模式下均取得了和 SAM 相當的表現。

圖片

圖片

圖片

參考?獻
[1] Kirillov A, Mintun E, Ravi N, et al. Segment anything[J]. arXiv preprint arXiv:2304.02643, 2023.
[2] Li J, Yang T, Ji W, et al. Exploring denoised cross-video contrast for weakly-supervised temporal action localization[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 19914-19924.

論文地址:https://arxiv.org/abs/2306.12156

GitHub項目頁:https://github.com/CASIA-IVA-Lab/FastSAM

HuggingFace DEMO:https://huggingface.co/spaces/An-619/FastSAM

Replicate demo:https://replicate.com/casia-iva-lab/fastsam

責任編輯:武曉燕 來源: 量子位
相關推薦

2023-04-10 15:52:57

模型樣本

2023-12-07 07:16:57

Meta訓練

2023-11-22 11:40:00

Meta模型

2024-07-30 10:51:51

2023-04-25 11:36:17

CV模型

2023-07-17 13:14:45

模型分割

2023-05-04 12:19:47

模型AI

2023-12-06 13:36:00

模型數據

2023-07-05 14:06:43

視頻AI

2024-03-01 10:04:11

研究訓練編碼器

2024-09-03 10:20:00

框架模型

2017-05-15 15:07:36

納米材料農藥

2024-08-12 08:20:00

自動化研究

2019-01-16 15:21:12

中科院大數據數據庫

2024-03-07 12:31:29

AI技術

2009-09-18 09:40:57

浪潮中科院合肥

2023-03-07 13:31:45

模型泄漏

2013-09-02 10:21:31

曙光核高基中科院

2016-04-19 12:51:26

2009-10-11 01:04:43

曙光中科院計算中心
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美精品在线一区 | 久久中文字幕一区 | 81精品国产乱码久久久久久 | 中文在线观看视频 | 黄网站免费在线观看 | 黄免费观看视频 | 午夜免费视频 | www.久久久久久久久久久久 | 国产精品免费一区二区三区四区 | 国产一级在线 | 亚洲精品欧美 | 91精品国产综合久久久久久丝袜 | av一级久久| 中文字幕一区二区三区日韩精品 | 老司机深夜福利网站 | av黄色免费 | 国产一区二区精品在线 | 国产精品毛片一区二区在线看 | 国产精品爱久久久久久久 | 一区二区免费在线观看 | 精品国产视频 | 少妇诱惑av| 毛片软件| 看一级毛片视频 | 亚洲协和影视 | 亚洲一区亚洲二区 | caoporn免费在线视频 | 在线视频h| 国产精品日产欧美久久久久 | 国产精品毛片无码 | 亚洲精品福利在线 | av网站免费在线观看 | 成人深夜福利 | 国产中文字幕av | 欧美 日韩精品 | 成人日韩 | 国产精品久久久久久久久图文区 | 最新av在线播放 | 久久成人一区 | 久久一区二区视频 | 国产精品免费在线 |