Diff2Scene:無須3D標注,擴散模型如何顛覆開放詞匯3D語義分割?
一眼概覽
Diff2Scene 是一種利用文本-圖像擴散模型進行 開放詞匯3D語義分割 的新方法,無需任何標注的3D數據,即可對 3D點云 進行語義理解,并在 ScanNet200 數據集上提升 12% 的 SOTA 性能。
核心問題
背景問題:傳統 3D 語義分割依賴封閉集標簽,無法處理新類別,且標注 3D 數據極其昂貴。現有 CLIP-based 方法在處理 細粒度類別和復雜文本查詢 時表現不佳。核心挑戰:如何在 無3D標注 的情況下,實現 開放詞匯的 3D 語義分割和視覺錨定(visual grounding)?應用價值:自動駕駛、機器人導航、AR/VR 場景解析等場景需要無監督、泛化性強的 3D 語義理解方法。
技術亮點
1. 擴散模型特征提取:使用 Stable Diffusion 預訓練的 文本-圖像生成模型 提取語義豐富的 2D 特征,比 CLIP 更擅長 局部特征表示,有利于密集預測任務。
2. 多模態掩碼蒸餾(Mask Distillation):創新性地設計了 2D-3D 掩碼蒸餾機制,通過 2D 語義掩碼作為分類器 預測 3D 語義,增強了 3D 語義理解能力。
3. 零樣本3D分割:完全 摒棄3D標注數據,僅使用 2D-3D 對應關系進行 無監督知識蒸餾,實現了端到端的 開放詞匯 3D 語義分割。
方法框架
Diff2Scene 采用 雙分支架構,結合 2D 語義理解 和 3D 幾何感知,主要步驟如下:
1. 2D 語義解析:
? 采用 Stable Diffusion U-Net 作為特征提取器,從 RGB 圖像生成 2D 語義掩碼(Salient-aware Masks)。
? 這些掩碼包含了豐富的 文本-視覺信息,并作為 分類器 提供 3D 語義先驗。
2. 3D 掩碼預測:
? 采用 稀疏 3D 卷積 U-Net 處理 點云數據,并結合 2D 掩碼提升 3D 預測能力。
? 生成 幾何感知掩碼(Geometric-aware Masks),提取 3D 空間信息。
3. 多模態掩碼蒸餾:
? 2D 語義掩碼 → 3D 語義掩碼 遷移,保證 2D 和 3D 語義的一致性。
? 采用 余弦相似度損失(Cosine Similarity Loss)約束 2D 和 3D 掩碼的分布一致性,實現 跨模態特征學習。
4. 開放詞匯推理:
? 采用 融合推理策略,將 Stable Diffusion 的生成特征 和 CLIP 的判別特征 結合,實現 靈活的語義查詢。
實驗結果速覽
圖片
Diff2Scene 在多個 3D 語義分割基準測試上超越 SOTA:
? ScanNet200(零樣本設置):
a.整體 mIoU 提升 12%(從 34.2 → 46.2)
b.尾類 mIoU 提升 2.6%(從 11.9 → 12.9)
? Matterport3D:mIoU 提升 3.1%(從 42.6 → 45.5)
? Replica(通用化測試):mIoU 提升 2.6%(從 14.9 → 17.5)
? 視覺錨定任務(Nr3D):
? 在 “紅色短箱子”、“帶皺紋毛巾的架子” 等復雜文本查詢任務中,Diff2Scene 比 OpenScene 預測更加精準。
實用價值與應用
Diff2Scene 完全摒棄了 3D 數據標注,在 真實世界開放環境 具有極大應用潛力:
? 自動駕駛:適用于 長尾類別 識別(例如罕見的路障、動物等)。
? 機器人感知:提供 無監督的 3D 物體定位,提升 環境理解能力。
? 增強現實(AR):基于文本語義進行 3D 場景查詢與交互,提升用戶體驗。
? 建筑和室內設計:支持 自然語言搜索 3D 物品,簡化 室內規劃 任務。
開放問題
1. 在極端長尾分布類別(如 ScanNet200 的“窗臺”)上,Diff2Scene 仍然容易誤分類,如何進一步提升其魯棒性?
2. 當前方法依賴 2D 預訓練模型,未來是否可以探索端到端的 3D 擴散模型,直接生成 3D 語義表示?
3. 擴散模型的生成特征對 3D 語義分割是否真的比 CLIP 判別特征更有效?是否可以進一步融合兩者的優勢?