
NVIDIA 宣布開放旗下生成式 AI 面部動畫技術「Audio2Face」,一次釋出完整模型、開發工具與訓練框架,目標加速 AI 虛擬人角色在遊戲、動畫與 3D 應用中的落地整合。
這項技術可以根據輸入音訊,自動解析語音中的音素、語調與情感等聲學特徵,即時驅動虛擬角色產生自然口型與情緒表情,並支援多語言精準同步。目前已在多款遊戲中實際應用,開發團隊表示將持續推廣至更多創作場景。
講話就會「動臉」!AI 虛擬人互動更逼真
Audio2Face 最大特點在於可根據真實語音訊號即時生成動畫表情,具備兩種模式:
-
離線渲染:適用於影片與遊戲劇情設計,可透過預錄音訊生成高品質動畫
-
即時串流處理:適合用於虛擬主播、AI 客服等互動情境,實現同步語音與面部動作
這讓過去耗時的「口型同步」與「表情製作」流程變得更輕量,不只省下人力成本,也讓虛擬角色表現更自然真實。
目前已有多家遊戲公司將 Audio2Face 納入開發流程:
-
Survios 工作室:在《異形:俠盜入侵進化版》中導入 Audio2Face,讓角色能自然對話,口型與語調高度一致
-
Farm 51 團隊:於《車諾比人2:禁區》使用該技術,自動生成高精度面部動畫,大幅縮短製作時間、提升玩家沉浸感
Farm 51 創意總監 Wojciech Pazdur 更形容這項技術是「一場動畫產業的革命性突破」。
開源推動創作自由,目標建立虛擬角色新標準
NVIDIA 此次釋出的不只是模型本體,還包含:
-
完整 SDK 工具包
-
可自訂訓練流程的框架
-
開放授權使用條款
開發者、動畫工作者或遊戲設計師,都能更靈活將 Audio2Face 整合到自己建構的虛擬人、NPC、數位角色中,推動下一波虛擬角色互動體驗升級。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!