成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AAAI 2025 | IML領域稀疏化視覺Transformer,代碼已開源

人工智能 新聞
SparseViT 通過利用語義特征和非語義特征之間的差異性,使模型能夠自適應地提取在圖像篡改定位中更為關鍵的非語義特征,為篡改區域的精準定位提供了全新的研究思路。

SparseViT 的主要科研成員來自四川大學呂建成團隊,合作方為澳門大學潘治文教授團隊。

圖片

  • 論文:《Can We Get Rid of Handcrafted Feature Extractors? SparseViT: Nonsemantics-Centered, Parameter-Efficient Image Manipulation Localization through Spare-Coding Transformer》
  • 論文鏈接:https://arxiv.org/abs/2412.14598
  • GitHub:https://github.com/scu-zjz/SparseViT

隨著圖像編輯工具和圖像生成技術的快速發展,圖像處理變得非常方便。然而圖像在經過處理后不可避免的會留下偽影(操作痕跡),這些偽影可分為語義和非語義特征。因此目前幾乎所有的圖像篡改檢測模型(IML)都遵循「語義分割主干網絡」與「精心制作的手工制作非語義特征提取」相結合的設計,這種方法嚴重限制了模型在未知場景的偽影提取能力。

研究內容

利用非語義信息往往在局部和全局之間保持一致性,同時相較于語義信息在圖像不同區域表現出更大的獨立性,SparseViT 提出了以稀疏自注意力為核心的架構,取代傳統 Vision Transformer (ViT) 的全局自注意力機制,通過稀疏計算模式,使得模型自適應提取圖像篡改檢測中的非語義特征。

研究團隊在統一的評估協議下復現并對比多個現有的最先進方法,系統驗證了 SparseViT 的優越性。同時,框架采用模塊化設計,用戶可以靈活定制或擴展模型的核心模塊,并通過可學習的多尺度監督機制增強模型對多種場景的泛化能力。

此外,SparseViT 極大地降低了計算量(最高減少 80% 的 FLOPs),實現了參數效率與性能的兼顧,展現了其在多基準數據集上的卓越表現。SparseViT 有望為圖像篡改檢測領域的理論與應用研究提供新視角,為后續研究奠定基礎。

SparseViT 總體架構的設計概覽圖如下所示:

圖片

圖 1:SparseViT 總體架構。

主要的組件包含:

1. 負責高效特征捕獲的 Sparse Self-Attention

Sparse Self-Attention 是 SparseViT 框架的核心組件,專注于在減少計算復雜度的同時高效捕獲篡改圖像中的關鍵特征即非語義特征。傳統的自注意力機制由于 patch 進行 token-to-token 的注意力計算,導致模型對語義信息過度擬合,使得非語義信息在受到篡改后表現出的局部不一致性被忽視。

為此,Sparse Self-Attention 提出了基于稀疏編碼的自注意力機制,如圖 2 所示,通過對輸入特征圖施加稀疏性約束,設輸入的特征圖圖片, 我們不是對 圖片的整個特征上應用注意力,而是將特征分成形狀為圖片的張量塊,表示將特征圖分解為圖片個大小為圖片的不重疊的張量塊,分別在這些張量塊上進行自注意力計算。

圖片

圖 2:稀疏自注意力。

這一機制通過對特征圖進行區域劃分,使模型在訓練中專注于非語義特征的提取,提升了對圖像篡改偽影的捕捉能力。相比傳統自注意力,Sparse Self-Attention 減少了約 80% 的 FLOPs,同時保留了高效的特征捕獲能力,特別是在復雜場景中表現卓越。模塊化的實現方式還允許用戶根據需求對稀疏策略進行調整,從而滿足不同任務的需求。

2. 負責多尺度特征融合的 Learnable Feature Fusion (LFF)

Learnable Feature Fusion (LFF) 是 SparseViT 中的重要模塊,旨在通過多尺度特征融合機制提高模型的泛化能力和對復雜場景的適應性。不同于傳統的固定規則特征融合方法,LFF 模塊通過引入可學習參數,動態調整不同尺度特征的重要性,從而增強了模型對圖像篡改偽影的敏感度。

LFF 通過從稀疏自注意力模塊輸出的多尺度特征中學習特定的融合權重,優先強化與篡改相關的低頻特征,同時保留語義信息較強的高頻特征。模塊設計充分考慮了 IML 任務的多樣化需求,既能針對微弱的非語義偽影進行細粒度處理,又能適應大尺度的全局特征提取。LFF 的引入顯著提升了 SparseViT 在跨場景、多樣化數據集上的性能,同時減少了無關特征對模型的干擾,為進一步優化 IML 模型性能提供了靈活的解決方案。

研究總結

簡而言之,SparseViT 具有以下四個貢獻:

1. 我們揭示了篡改圖像的語義特征需要連續的局部交互來構建全局語義,而非語義特征由于其局部獨立性,可以通過稀疏編碼實現全局交互。

2. 基于語義和非語義特征的不同行為,我們提出使用稀疏自注意機制自適應地從圖像中提取非語義特征。

3. 為了解決傳統多尺度融合方法的不可學習性,我們引入了一種可學習的多尺度監督機制。

4. 我們提出的 SparseViT 在不依賴手工特征提取器的情況下保持了參數效率,并在四個公共數據集上實現了最先進的(SoTA)性能和出色的模型泛化能力。

SparseViT 通過利用語義特征和非語義特征之間的差異性,使模型能夠自適應地提取在圖像篡改定位中更為關鍵的非語義特征,為篡改區域的精準定位提供了全新的研究思路。相關代碼和操作文檔、使用教程已完全開源在 GitHub 上(https://github.com/scu-zjz/SparseViT)。該代碼有著完善的更新計劃,倉庫將被長期維護,歡迎全球研究者使用和提出改進意見。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2025-04-28 12:28:27

2021-05-21 09:29:57

計算機互聯網技術

2025-04-30 09:00:00

模型推理AI

2025-02-06 10:16:00

2023-12-06 09:37:55

模型視覺

2025-06-05 02:15:00

Mamba視覺網絡

2022-04-26 09:44:29

算法庫EasyCV開源

2025-05-19 08:45:00

2021-07-07 17:19:07

人工智能代碼開源

2023-12-05 13:38:11

架構模型

2025-01-22 13:15:10

2024-11-21 16:06:02

2023-04-10 15:48:41

代碼計算

2019-05-14 09:53:31

代碼開發工具

2022-04-11 09:20:00

模型訓練

2025-03-10 08:47:00

模型AI訓練

2024-01-17 12:10:44

AI訓練

2021-06-21 09:37:05

代碼開源可視化

2019-10-08 15:33:59

開源技術 工具

2020-10-05 22:00:59

深度學習編程人工智能
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品久久久久久久久久久免费看 | 国产欧美日韩一区 | 成人在线播放网址 | 国产亚洲一区精品 | 欧美日批| 国产精品成人品 | 亚洲国产精品福利 | 欧美视频网| 99久久久久国产精品免费 | 欧美一二三四成人免费视频 | 欧美极品在线观看 | 久久久九九 | 国产精品日韩欧美一区二区三区 | 久产久精国产品 | 国产精品视频久久 | 日韩精品色网 | 九色 在线| 欧美日日| 久久久久国产一区二区三区四区 | 久久久久久久国产 | 日韩精品免费播放 | 亚洲综合精品 | 综合精品 | 91中文字幕在线 | 91麻豆蜜桃一区二区三区 | 日韩国产高清在线观看 | 久久久久国产精品一区二区 | 亚洲永久入口 | 亚洲精品电影网在线观看 | 国内精品久久久久久久影视简单 | 91色视频在线观看 | 欧美一区在线视频 | 国产成人免费视频 | 青青久草 | 国产精品久久99 | 亚洲午夜视频 | 中国美女一级黄色片 | 国产婷婷色一区二区三区 | 国产精品免费在线 | 日韩高清在线 | 亚洲a毛片|