VR 世界沉浸感再升級,Meta 打造超逼真虛擬手模型
1 月 22 日消息,雙手是我們與世界交互的重要工具,也是我們自我認(rèn)同的重要部分。在虛擬現(xiàn)實的世界里,一雙逼真寫實的雙手將極大地提升用戶沉浸感和化身認(rèn)同感。Meta 近期正在致力于讓虛擬現(xiàn)實中的雙手盡可能逼真和個性化,以增強(qiáng)用戶在元宇宙中的沉浸式體驗。
近日,來自 Meta Codec Avatars 實驗室和新加坡南洋理工大學(xué)的研究人員聯(lián)合發(fā)布了開創(chuàng)性研究成果 ——URHand,即“通用可變光照手部模型(Universal Relightable Hands)”。
URHand 并非簡單的手部模型,它能夠根據(jù)用戶的真實雙手進(jìn)行個性化調(diào)整,并模擬真實光照環(huán)境下的手部細(xì)節(jié),研究人員將其稱為“首個可適應(yīng)不同視角、姿勢、光照和個體差異的通用可變光照手部模型”。該模型的一大亮點(diǎn)是,用戶只需要用手機(jī)簡單上傳的幾張自己的手部照片,該模型就定制出與本人相差無幾的虛擬手,輕松將“你的手”帶入虛擬世界。
目前尚不清楚這項研究何時能轉(zhuǎn)化為實際產(chǎn)品。Meta 多年來一直致力于打造逼真的 Codec Avatars 技術(shù),期望實現(xiàn)跨越時空的真實互動。IT之家注意到,近期扎克伯格與 Lex Fridman 在一檔播客節(jié)目中展示了該技術(shù)的最新進(jìn)展。Meta 的目標(biāo)是將 Codec Avatars 帶入獨(dú)立式 VR 頭顯,但目前仍面臨諸多挑戰(zhàn)。
打造一個逼真的虛擬化身不僅需要逼真的頭部和面部,還需要自然的肢體動作、真實服飾細(xì)節(jié)以及高度個性化的雙手。雙手的重要性尤為突出,因為它們是自我認(rèn)同的重要部分。任何體驗過虛擬現(xiàn)實中與自己真實雙手完全不符的手部模型的人都會明白那種失真感帶來的不適。URHand 的出現(xiàn),無疑為解決這一難題邁出了重要一步。未來,當(dāng)你在元宇宙中伸出手指,打招呼,或是握住虛擬物件時,或許會感覺就像是在現(xiàn)實世界中一樣自然。