現今大部分遊戲都採用 Epic Games 的 Unreal 引擎開發,在今年的 Game Developers Conference 中,他們展示了最新照明及反射技術,加上即時光線追蹤,讓 Unreal 引擎的光影效果得到更真實的表現。同時亦展示最新 Real-time Motion Capture 實時動作捕捉技術,將真人的動作即時反映到這個像真人的 CG 角色上。
Epic Games 在 GDC 2018 展示最新 Real-time Motion Capture 技術,實時 3Lateral 、 Cubic Motion 、 Tencent 及 Vicon 多間公司,製作出高度像真的實時數碼角色「Siren」。工作人員戴上一系列感應裝置與攝錄鏡頭,她的一舉一動甚至說話的口型都能實時,如實反映到像真度超高的虛擬角色之上。 這個「Siren」虛擬角色的原型來自中國女演員姜冰潔。Epic Games 指出這種技術除了應用在遊戲之外,亦可利用在電影與廣告用途,藝人毋須自己親自上鏡,靠其他工作人員來控制這些虛擬角色便可。
▲工作人員示範利用感應器與視像鏡頭輸入動作,實時操作虛擬人物Siren
▲被用於製作虛擬角色 Siren 的中國女演員姜冰潔
虛擬角色技術同時亦可以用於改進特技拍攝效果。 3Lateral 和 Epic Game 透過特技演員 Andy Serkis 的真實照片,製作出他的虛擬角色。只需修改參數,就可實時修改它的外貌和表現,讓特技拍攝更加輕鬆。Vicon 的 VFX 產品經理 Tim Doubleday 表示,他們最近正努力嘗試創造逼真的虛擬角色,透過與 Epic Games 等公司合作,他們希望能夠參與並推動這個領域的進一步發展。
在發布會中, ILMxLAB 透過 Unreal 4 引擎、 Nvidia 的 Volta GPU RTX 技術,以及 Microsoft 的 DirectX Raytracing API ,製作一段名為《Reflections》的影片,以星球大戰人物展示即時光線追蹤技術,以及即時呈現中電影級光影效果的能力。在發布會中, Epic Games 與 ILMxLAB 透過 iPad 的 ARkit,以虛擬鏡頭的方式呈現即時的拍攝場景。
資料來源:polygon.com