材質界的ImageNet,大規模6維材質實拍數據庫OpenSVBRDF發布
在計算圖形學領域,材質外觀刻畫了真實物體與光線之間的復雜物理交互,通??杀磉_為隨空間位置變化的雙向反射分布函數(Spatially-Varying Bidirectional Reflectance Distribution Function,縮寫為 SVBRDF)。它是視覺計算中不可或缺的組成部分,在文化遺產、電子商務、電子游戲和視覺特效等領域中有著廣泛的應用。
在過去的二十年里,特別是深度學習流行后,學術界與工業界對高精度、多樣化數字材質外觀的需求不斷增加。但由于技術上的挑戰,采集大型數據庫仍然十分困難,目前公開可用的材質外觀實拍數據庫的數量非常有限。
為此,浙江大學計算機輔助設計與圖形系統全國重點實驗室和杭州相芯科技有限公司的研究團隊聯合提出了一種新型集成系統,用于魯棒、高質量和高效地采集平面各向異性材質外觀。利用該系統,研究團隊構建了 OpenSVBRDF 公開材質數據庫。
圖 1:OpenSVBRDF 數據庫中的部分材質樣例展示。每一行同屬一個材質類別。
這是第一個大規模 6 維 SVBRDF 的實測數據庫,共有 1,000 個高質量平面樣本,空間分辨率為 1,024×1,024,等效為超過 10 億個實測 BRDF,涵蓋了包括木材、織物和金屬在內的 9 種類別。
數據庫主頁:https://opensvbrdf.github.io/
目前,數據庫對非商業應用完全免費。只需要提交基本信息在網站上申請賬號,通過審核后,即可直接下載包括 GGX 紋理貼圖在內的相關數據和代碼。相關研究論文《OpenSVBRDF: A Database of Measured Spatially-Varying Reflectance》已被計算機圖形學頂級國際會議 ACM SIGGRAPH ASIA 2023 (Journal Track) 長文接收。
論文主頁:https://svbrdf.github.io/
技術挑戰
直接采樣方法在不同的光照和觀察角度的組合下對物理材質進行密集測量 [Lawrence et al. 2006]。這么做雖然能夠獲得高質量且魯棒的采集結果,但其效率很低,需要高昂的時間和存儲成本。還有一種選擇是基于先驗知識的重建方法,可以從稀疏的采樣數據中重建材質。這樣雖然提高了效率,但當先驗條件不滿足時,其質量不盡人意 [Nam et al. 2018]。此外,當前SOTA光路復用技術,雖然達到了較高的采集效率和重建質量,但在處理如拉絲金屬和拋光木皮等高度復雜材質時,算法還不夠魯棒 [Kang et al. 2018]。
圖 2:現有材質采集研究的代表工作。從左到右分別是 [Lawrence et al. 2006],[Nam et al. 2018] 以及 [Kang et al. 2018]。其中 [Kang et al. 2018] 為該團隊在 2018 年發表于 ACM SIGGRAPH 的早期工作。
硬件
為高效掃描材質外觀,研究團隊搭建了一個接近半立方體的近場光照多路復用設備,其尺寸約為 70cm×70cm×40cm。樣本被放置在一塊透明的亞克力板上,可以通過抽屜滑軌快速滑入 / 滑出,來實現高吞吐率。該設備由 2 臺機器視覺相機和 16,384 個高亮度 LED 組成,兩臺相機分別從大約 90 度(主視角)和 45 度(次視角)的角度拍攝樣本,LED 分布在設備的 6 個面上。自主研發的高性能控制電路負責對每個 LED 進行獨立亮度控制,并在硬件層面實現了光源投射和相機曝光的高精度同步。
圖 3:采集設備外觀及兩個視角下的照片。
采集重建
本系統創新性地結合了當前基于網絡預測和基于微調兩大類流行方法的優點,既能通過可微分光照圖案優化來增加物理采集效率,又能通過微調來進一步提升最終結果質量,從而首次實現了對于平面 SVBRDF 的高魯棒性、高質量以及高效率的采集重建。
具體來說,為了重建物理樣本,研究者首先通過在均勻照明下匹配密集 SIFT 特征來建立兩個相機視角之間的高精度對應關系。對于物理采集,首先將光照圖案作為自編碼器的一部分進行優化,實現高效采集。該自編碼器自動學習如何基于兩個視角的測量值來重建復雜外觀,并將結果表示為中間神經表達。隨后,根據主視角相機在 63 個等效線性光源下拍攝的照片,通過繪制圖像誤差對神經表達進行微調,以提高最終結果的質量和魯棒性。圖 3 展示了整個系統的處理流程。更多詳細信息請參閱原文論文。
圖 4:整個系統的采集重建流程。
結果
研究人員共采集重建了 9 個類別,共計 1,000 個樣本的外觀,為了方便基于物理的標準繪制管線(PBR)直接使用,該研究還將神經表達擬合到了業界標準的各向異性 GGX BRDF 模型參數。圖 5 展示了材質重建結果的分項參數 / 屬性。每個樣本存儲了 193 張原始 HDR 照片(總大小 15GB)、中間神經表達(290MB),以及 6 張貼圖,包括表示 GGX 參數的紋理貼圖和透明度貼圖(總大小 55MB)。神經表達和紋理貼圖的空間分辨率均為 1,024×1,024。
圖 5:材質重建結果分項屬性(包括神經表達、漫反射率、高光反射率、粗糙度等)。
為了證明重建結果的正確性,研究人員將主視角下的照片(下圖第一行)和神經表達繪制結果(下圖第二行)進行了比較。定量誤差(以 SSIM/PSNR 表達)標注在繪制圖片的底部。由下圖結果可見,本系統實現了高質量材質重建(SSIM>=0.97, PSNR>=34db)。
圖 6:實拍照片和神經表達繪制結果在主視角下的對比。
為了進一步證明重建結果的視角域泛化性,研究人員將點光源照射下、兩個視角所拍攝的照片和使用 GGX 擬合參數繪制的結果進行了比較,驗證了重建結果的跨視角正確性。
圖 7:實拍照片和各向異性 GGX 擬合參數繪制結果在兩個視角下的對比。
研究人員還展示了該數據庫在材質生成、材質分類以及材質重建三方面的應用。具體細節請參考原始論文。
圖 8:利用 OpenSVBRDF 訓練 MaterialGAN 來實現材質生成與插值。
圖 9:利用 OpenSVBRDF 訓練主動光照以提升材質分類精度。
圖 10:利用 OpenSVBRDF 來提高基于單點采樣(左)和光路多路復用(右)的 BRDF 重建質量。
展望
研究人員將努力擴展現有數據庫,增加展現多樣性外觀的材質樣本。未來,他們還計劃建立同時包含材質外觀和幾何形狀的大規模高精度實測物體數據庫。此外,研究人員將基于 OpenSVBRDF 設計在材質估計、分類和生成等方向上的公開 Benchmark,通過客觀定量的標準測試,為推動相關研究的未來發展提供堅實的數據保障。