如何用Three.js + Blender打造一個web 3D展覽館
一、前言
3D展覽館是什么,先來預覽下效果:
看起來像個3D冒險類手游,用戶可以操縱屏幕中央的虛擬搖桿,以第一人稱視角在房間內自由移動、看展覽。
1.1 為什么做3D展覽館
首先介紹一個背景,我們的工作內容是做游戲中心的用戶運營活動,會做些好玩的活動讓用戶參與,并get一些福利。
當時的活動背景是我司一年一度的vivo游戲節(jié),并且元宇宙是大熱詞。所以做它的原因有幾個:
- vivo游戲節(jié)主題
- 契合元宇宙熱點
- 新玩法、新體驗
1.2 技術選型
用到的組合方案:Three.js + Blender。
- why Three.js
開源的3D框架有很多,但最常用的有兩種:Three.js、Babylon.js,我們只需要從中二選一。分析后發(fā)現兩者各有優(yōu)勢:
考慮到3D展覽館的幾個基本特性:
- 簡單的小型3D場景,沒有復雜的交互(對鏡頭的要求不高)
- 投放在移動設備,需要盡可能小的包體,以提升性能
- 工期短,需要快速上手及更多的案例參考
Three.js包體更小、有更多參考案例、上手更快,所以雖然Babylon.js有它的優(yōu)勢,但Three.js更適合這個項目。
- why Blender
Blender是一款輕量的開源3D建模軟件,有很多好用的免費插件,而且Blender能導出GLTF / GLB模型(后面會對GLTF / GLB模型做簡介),匹配Three.js的使用方式,整體更簡單好用一些。
所以,就是它了。
二、實踐部分
2.1 了解GLTF / GLB模型
在進入開發(fā)之前,先簡單了解Blender和GLTF / GLB模型。
- 簡單了解 Blender
首先,Blender大概長這樣,圖中是設計師交付的3D展覽館稿子。簡單理解為,左側是模型的層次結構,中間是模型的預覽效果,右側是模型的屬性面板。
一般來說,作為開發(fā)者我們不需要掌握太多Blender相關知識,只需知道如何看懂模型結構、導出GLTF / GLB模型以及烘焙的基本原理即可。
- GLTF / GLB模型
GLTF(Graphics Language Transmission Format)是一種標準的3D模型文件格式,它以JSON的形式存儲3D模型信息,例如模型的層次結構、材質、動畫、紋理等。
模型中依賴的靜態(tài)資源,比如圖片,可以通過外部URI的方式來引入,也可以轉成base64直接插入在GLTF文件中。
它包含兩種形式的后綴,分別是.gltf(JSON/ASCII)和.glb(Binary)。.gltf是以JSON的形式存儲信息。.glb則是.gltf的擴展格式,它以二進制的形式存儲信息,因此導出的模型體積也更小一些。如果我們不需要通過JSON對.gltf模型進行直接修改,建議使用.glb模型,它更小、加載更快。
- Blender導出GLTF / GLB模型
在blender中,可以直接將模型導出為GLTF / GLB格式,三種選項的差別不再贅述,我們先簡單選擇最高效的.glb格式。
有了模型之后,我們可以開始通過Three.js創(chuàng)建場景,并導入這個模型了。
2.2 Three.js 加載模型
為了防止篇幅過長,這里假設大家已經掌握了Three.js的一些基本語法。文章重點放在如何加載模型,并一步步進行調優(yōu)和實現最終的3D展覽館效果。
怎么加載一個模型?
(1)創(chuàng)建一個空場景
首先創(chuàng)建一個空場景scene,后續(xù)所有的模型或材質都會被添加到這個場景中。
import * as THREE from 'three'
// 1. 創(chuàng)建場景
const scene = new THREE.Scene();
// 2. 創(chuàng)建鏡頭
const camera = new THREE.PerspectiveCamera( 75, window.innerWidth / window.innerHeight, 0.1, 1000 );
// 3. 創(chuàng)建Renderer
const renderer = new THREE.WebGLRenderer();
renderer.setSize( window.innerWidth, window.innerHeight );
document.body.appendChild( renderer.domElement );
(2)導入GLTF / GLB模型
通過GLTFLoader導入.glb模型,并添加到場景中。
import GLTFLoader from 'GLTFLoader'
const loader = new GLTFLoader()
loader.load('path/to/gallery.glb',
gltf => {
scene.add(gltf.scene) // 添加到場景中
}
}
(3)開始渲染
通過requestAnimationFrame來調用renderer.render方法,開始實時渲染場景。
function animate() {
requestAnimationFrame( animate );
renderer.render( scene, camera );
}
animate();
ok,這樣我們就完成了3D模型的導入,但是發(fā)現整個場景一片漆黑。
圖片
試試加個環(huán)境光。
const ambientLight = new THREE.AmbientLight(0xffffff, 1)
scene.add(ambientLight)
ok,亮起來了,但是效果依然很差,很劣質。
原因是模型中的材質效果、光源、陰影、環(huán)境紋理,這些全都丟失了,所以當我們導入模型時,看到的就是一堆簡陋的純色形狀。
所以我們要一步步將這些丟失東西找回,還原設計稿。
2.3 還原設計稿
接下來一步步還原設計稿。
(1)加上光源
查看Blender模型,看到設計稿中添加了一堆點光源、平行光源。
點光源可以理解為房間中的燈泡,光線強弱隨著距離衰減;
平行光源可以理解為太陽的直射光,它和點光源不同,光線強弱不隨著距離衰減。
于是我們也增加一些光源:
// 一些燈光選項
// 如果是平行光則沒有distance、decay選項
const lightOptions = [
{
type: 'point', // 燈光類型:1. point點光源、2. directional平行光源
color: 0xfff0bf, // 燈光顏色
intensity: 0.4, // 燈光強度
distance: 30, // 光照距離
decay: 2, // 衰減速度
position: { // 光源位置
x: 2,
y: 6,
z: 0
}
},
...
]
function createLights() {
pointLightOptions.forEach(option => {
const light = option.type === 'point' ?
new THREE.PointLight(option.color, option.intensity, option.distance, option.decay) :
new THREE.DirectionalLight(option.color, option.intensity)
const position = option.position
light.position.set(position.x, position.y, position.z)
scene.add(light)
})
}
createLights()
可以看到場景比之前好了一些,有了光源后,模型變得立體和真實了,多了一些反色的光澤。
圖片
圖片
但是我們注意到,畫面中的logo、長椅的兩側都是黑色的,并且旁邊的球體、椅子等都顯得不夠真實。
所以,我們需要進行下一步調整:調整模型材質、增加環(huán)境紋理。
(2)調整模型材質,增加環(huán)境紋理
先簡單了解一下材質和環(huán)境紋理。
- 材質(material)
材質就像物體的皮膚,我們可以調整皮膚的光澤、金屬度、粗糙度、透明與否等屬性,讓物體有不同的視覺效果。
一般從blender導出的模型中,已經包含了一些材質屬性,但是Three.js中的材質屬性和Blender中的屬性并非完全的映射關系,模型在導入到Three.js后,效果和設計稿會有差異。這時候我們需要手動調整材質的屬性,來達到和設計稿近似的效果。
- 環(huán)境紋理(environment map)
環(huán)境紋理就是讓模型映射周圍的環(huán)境,讓場景或物體更真實。例如我們要渲染一個立方體,把立方體放進一個屋子里,這個屋子的環(huán)境就會影響立方體的渲染效果。
比如鏡面的物體被貼上環(huán)境紋理后,就可以實時反射周圍的環(huán)境鏡像,看起來很real。
設計稿中也是將一個大廳作為了環(huán)境紋理,讓場景更真實。
環(huán)境紋理分為:球形紋理和立方體形紋理。兩者都可以,這里我們采用一張大廳的球形紋理作為環(huán)境貼圖。
以畫面中的vivo游戲節(jié)logo為例,我們通過調整它的材質和環(huán)境紋理,讓它變得更真實。
- 根據在blender中的命名,找到logo模型
- 調整logo的表面粗糙度和金屬度
- 加載并設置環(huán)境紋理貼圖
const loader = new GLTFLoader()
loader.load('path/to/gallery.glb',
gltf => {
// 1. 根據Blender中物體的名字,找到logo模型
gltf.scene.traverse(child => {
if (isLogo(child)) {
initLogo(child) // 2. 調整材質
setEnvMap(child) // 3. 設置環(huán)境紋理
}
})
scene.add(gltf.scene)
}
}
// 判斷是否為Logo
const isLogo = object.name === 'logo'
function initLogo(object) {
object.material.roughness = 0 // 調整表面粗糙度
object.material.metalness = 1 // 調整金屬度
}
// 加載環(huán)境紋理
let envMap
const envmaploader = new THREE.PMREMGenerator(renderer)
const setEnvMap = (object) => {
if(envMap) {
object.material.envMap = envMap.texture
} else {
textureLoader.load('path/to/envMap.jpg',
texture => {
texture.encoding = THREE.sRGBEncoding
envMap = envmaploader.fromCubemap(texture)
object.material.envMap = envMap.texture
})
}
}
經過上面的處理后,可以看到原先黑色的logo有了金屬光澤,并且會反射周圍的環(huán)境紋理。
其它物體經過類似的處理后,也變得更真實一些。
圖片
圖片
圖片
圖片
現在整個場景更接近了設計稿一些,但場景中少了陰影,顯得很干癟。
加上陰影。
(3)增加陰影
增加陰影分四步:
- 對renderer開啟陰影支持:renderer.shadowMap.enabled = true
- 對光源設置:castShadow = true
- 對需要投影的物體設置:castShadow = true
- 對需要被投影的平面或物體(比如地板)設置:receiveShadow = true
// 1. renderer
const renderer = new THREE.WebGLRenderer()
renderer.shadowMap.enabled = true;
renderer.shadowMap.type = THREE.PCFSoftShadowMap;
// 2. light
const light = new THREE.DirectionalLight()
light.castShadow = true;
// 3. object
gltf.scene.traverse(function (child) {
if (child.isMesh) {
child.castShadow = true;
}
});
// 4. floor
floor.receiveShadow = true
添加陰影后,有質的提升,發(fā)現整個場景立體了很多,此時還原度已經很高。
如果不考慮性能損耗,這個場景的樣式已經可以投入使用了。(后續(xù)會提到性能優(yōu)化)
小結一下,剛剛做的幾件事:
- 添加光源
- 調整模型材質、增加環(huán)境紋理
- 增加陰影
現在3D展覽館場景已經還原的差不多了,接下來要構造一個虛擬移動搖桿,控制第一人稱鏡頭的移動和轉向,實現沉浸式逛展的效果。
2.4 虛擬移動搖桿
要實現通過虛擬移動搖桿控制鏡頭的移動和轉向,我們需要三個東西:
- 一個移動搖桿(handler)
- 一個長方體(player):用于承載第一人稱視角
- 一個鏡頭(camera):之前已經創(chuàng)建過了
有人會問為什么需要一個player,通過搖桿直接控制鏡頭不就行了嗎?其實player的作用是用于做碰撞檢測,當player遇到凳子、墻壁等障礙物時,需要停止鏡頭移動。直接控制鏡頭,是無法做碰撞檢測的。
所以,實際上鏡頭移動的邏輯是:
用戶操縱搖桿 → 更新player位置和朝向 →從而同步更新camera位置和朝向
(1)創(chuàng)建移動搖桿
移動搖桿的實現原理很簡單,這里僅做簡述。
核心在于創(chuàng)建一個圓盤,監(jiān)聽觸摸手勢,并根據手勢的方向來實時更新move參數,控制鏡頭的移動和轉向。
const speed = 8 // 移動速度
const turnSpeed = 3 // 轉向速度
// move option,用于調整第一人稱鏡頭的移動和轉向
const move = {
turn: 0, // 旋轉角度
forward: 0 // 前進距離
}
// 創(chuàng)建一個handler,并監(jiān)聽手勢,調整move option
const handler = new Handler()
handler.onTouchMove = () => { // update move option }
(2)創(chuàng)建player
首先創(chuàng)建一個player對象,它是一個1.2 * 2 * 1的透明長方體。
function createPlayer() {
const box = new THREE.BoxGeometry(1.2, 2, 1)
const mat = new THREE.MeshBasicMaterial({
color: 0x000000,
wireframe: true
})
const mesh = new THREE.Mesh(box, mat)
box.translate(0, 1, 0)
return mesh
}
const player = createPlayer() // 創(chuàng)建player
player.position.set(4.5, 2, 12) // 設置player的初始位置
(3)updatePlayer & updateCamera
每次渲染(render)時,更新player的位置和朝向,并同步更新鏡頭的位置和朝向。
const clock = THREE.clock()
function render() {
const dt = clock.delta() // 獲取每幀之間的時間間隔,根據時間間隔長短來更新player和camera的移動距離和轉向的多少
updatePlayer(dt)
updateCamera(dt)
renderer.render(scene, camera)
window.requestAnimationFrame(render)
}
// 更新player的位置和朝向
function updatePlayer(dt) {
const pos = player.position.clone()
pos.y -= 1.5 // 降低高度,后續(xù)用于計算碰撞檢測
const dir = new THREE.Vector3()
player.getWorldDirection(dir)
dir.negate()
if (move.forward < 0) dir.negate()
// 調整鏡頭前進 or 后退
if (move.forward !== 0) {
player.translateZ(move.forward > 0 ? -dt * speed : dt * speed * 0.5)
}
// 調整鏡頭朝向
if (move.turn !== 0) {
player.rotateY(move.turn * 1.2 * dt)
}
}
// 根據player的位置和朝向,同步更新camera的位置和朝向
function updateCamera(dt) {
camera.position.lerp(activeCamera.getWorldPosition(new THREE.Vector3()), 0.08)
const pos = player.position.clone()
pos.y += 2.5
camera.lookAt(pos)
}
注意:render方法中使用clock.delta()來計算每次渲染之間的時間間隔,并使用這個時間間隔來更新player和camera。因為在理想的60幀率情況下,兩幀時間間隔為16.67ms,但實際上該數值會有波動,因此我們要根據實際的渲染時間間隔來更新player和camera,讓鏡頭的移動和轉向幅度更自然一些。
完成上述步驟后,我們就可以通過控制虛擬移動搖桿,來讓鏡頭移動和轉向了。
接下來加入碰撞檢測,對鏡頭移動加點限制。
2.5 碰撞檢測
碰撞檢測的步驟也很簡單:
- 收集障礙物(colliders)
- 檢測碰撞(基于THREE.Raycaster)
(1)收集障礙物
模型加載完成后,遍歷所有的child,如果child是一個物體(mesh),則把它加入到障礙物隊列(colliders)中。
const colliders = []
loader.load('path/to/gallery.glb',
gltf => {
gltf.scene.traverse(child => {
// 收集障礙物
if(isMesh(child)) {
colliders.push(child)
}
})
}
})
(2)檢測碰撞
調整剛剛的updatePlayer方法,在其中插入檢測碰撞的邏輯。
碰撞檢測邏輯基于THREE.Raycaster來實現,racaster可以理解為一個射線,當射線穿過了某個物體,我們就認為射線和物體相交了。
我們讓射線的方向和player的朝向保持一致,并且在移動過程中不斷判斷射線前方/后面是否有相交的物體,如果有相交的物體,且和射線頂點距離distance < 2.5則認為遇到了障礙物,不能再繼續(xù)前進。
function updatePlayer(dt) {
const pos = player.position.clone()
pos.y -= 1.5 // 降低高度,用于計算collision
const dir = new THREE.Vector3()
// 獲取當前player的朝向
player.getWorldDirection(dir)
dir.negate()
// 如果是向后退,需要對朝向取反
if (move.forward < 0) dir.negate()
// 利用Raycaster判斷player是否和colliders有碰撞行為
const raycaster = new THREE.Raycaster(pos, dir)
let blocked = false
if (colliders.length > 0) {
const intersect = raycaster.intersectObjects(colliders)
if (intersect.length > 0) {
// 如果相交距離<2.5,表示前方或后面有障礙物
if (intersect[0].distance < 2.5) {
blocked = true
}
}
}
// 如果遇到障礙物,則停滯移動
if (!blocked) {
// 調整鏡頭前進 or 后退
if (move.forward !== 0) {
player.translateZ(move.forward > 0 ? -dt * speed : dt * speed * 0.5)
}
}
// 調整鏡頭朝向
if (move.turn !== 0) {
player.rotateY(move.turn * 1.2 * dt)
}
}
這樣鏡頭的移動和碰撞檢測就完成了。
當我們移動到椅子、墻壁等障礙物附近時,鏡頭會停止移動。鏡頭的移動范圍也被我們限制在房間里,不會穿到房間外部。
三、性能調優(yōu)
3.1 紋理烘培
3D展覽館的基本功能已經完成了,但還沒有做任何的性能調優(yōu)。當我們把項目運行在手機上,會發(fā)現設備發(fā)熱發(fā)燙,幀率很低,低端機型甚至無法運行。
經過分析,實時的光影渲染是罪魁禍首。
頁面中有10+個光源,每個光源都在實時投射陰影(尤其是點光源十分消耗資源,引起卡頓)。但實際,場景中的光源和物體位置都沒有發(fā)生改變,這意味著我們不需要計算實時陰影,只需要固定的陰影。
這點可以通過紋理烘焙來實現。并且在移動端,經過紋理烘焙的光影效果實際上要優(yōu)于設備計算的實時光影效果。
- 紋理烘焙(Texture Baking)
紋理烘焙,是指通過將場景效果預渲染到指定紋理上,生成一個模型貼圖。在Blender中,我們可以選中任意對象進行烘焙。
以3D展覽館的地板為例,我們可以通過紋理烘焙,將光影效果直接渲染到貼圖上。
左圖是原本的棋盤格紋理,右圖是結合了光影效果的烘焙貼圖。烘焙完成后,地板上的光影效果就被固定下來了,我們也不需要再做實時的光影渲染。
圖片
圖片
用同樣的方式,將地板、墻壁、天花板等物體,一一進行烘焙處理,導出一個新的模型。由于光影效果已經被渲染到貼圖上,我們可以將大部分光源去掉,只保留2-3個必要的點、平行光源和全局光。再次運行后,發(fā)現卡頓、發(fā)燙的問題已經不再明顯。并且效果其實比實時渲染更精細一些。
圖片
圖片
這里沒有對烘焙做過多介紹,要生成精致的烘焙結果還需要依賴對UV Map、烘焙參數的了解,雖然這些偏向于設計同學的工作,一般由他們來輸出烘焙紋理。但是作為開發(fā)者,了解了這些后才能和UI更好地溝通和配合。
3.2 優(yōu)化模型大小
模型大小約為23M,首次加載模型需要9s左右。(尤其是在做完紋理烘焙后,由于貼圖變得復雜,模型更大了)
以下是幾個優(yōu)化模型大小的建議:
- 優(yōu)先使用.glb而非.gltf格式。.glb是二進制格式,它比.gltf的JSON格式小25% - 30%左右。
- 將紋理(Texture)和模型分離,并行加載。23M的模型中,其實只有2.3M為模型大小,其余都為紋理貼圖。將模型和紋理分開后,可以極大減少模型的加載速度。
- 使用Draco、gltfpack等工具或一些online compressor來壓縮模型(Blender在導出gltf模型時,就帶有基于Draco的壓縮選項)。本項目通過該步驟壓縮了50%的模型大小:3M → 1.2M。
- 壓縮紋理(Texture)。本項目用到了5張的Texture,壓縮后:18M→ 2M。
經過優(yōu)化,初始模型大小由23M縮小為1.2M,首次加載時間由9s縮短到3s以內。
(左圖為優(yōu)化前,右圖為優(yōu)化后)
圖片
圖片
四、總結
現在,我們基本完成了整個3D展覽館的開發(fā)。雖然有一些細節(jié)沒有在文中涉及到,但開發(fā)過程大致如此。
(1)了解Blender、GLTF / GLB模型
(2)js導入GLTF / GLB模型
(3)還原設計稿
- 添加光源
- 調整模型材質、增加環(huán)境紋理
- 增加陰影
(4)實現虛擬移動搖桿,控制鏡頭移動
(5)增加碰撞檢測
(6)性能調優(yōu):
- 紋理烘培:通過紋理烘焙降低實時光影的性能損耗。
- 優(yōu)化包體大小:
- 優(yōu)先使用.glb而非.gltf格式
- 紋理和模型分離
- 壓縮模型
- 壓縮紋理
五、其他
一些建議:
- 設計師在Blender中命名物體、材質時要規(guī)范化,避免出現奇怪或沒有標識意義的命名,因為在開發(fā)過程中會使用到,容易混淆。
- 設計師在在Blender中復用材質要謹慎,避免開發(fā)在調整某個材質時,影響到其它使用到相同材質的物體(潛在bug)。
- 模型加載緩慢時,可以增加loading進度條,緩解等待焦慮。Three.js loader支持加載進度查詢。
- Three.js在不同版本之間,接口頻繁變更,在使用時注意版本差異,google問題時也要注意接口兼容性。
- Three.js實現物體發(fā)光效果較繁瑣,且消耗性能,設計時可盡量避免使用。
- Three.js的鏡頭移動不夠絲滑,注重鏡頭切換流暢性的項目,可以嘗試用Babylon.js。
- 部分瀏覽器不支持videoTexture(在模型中播放視頻),謹慎設計該類型功能,或做好兼容處理。