浙江大学和网易伏羲ai实验室的研究人员开发出一个端到端的机器学习系统audio2face,可以从音频中单独生成实时面部动画,同时考虑到音高和说话风格。
我们都知道动画里的人物说话声音都是由后期配音演员合成的。
但即使利用crazytalk这样的软件,也很难将电脑生成的嘴唇、嘴型等与配音演员进行很好地匹配,尤其是当对话时长在数十甚至数百小时的情况下。
但不要气馁,动画师的福音来了——audio2face问世!
audio2face是一款端到端的机器学习系统,由浙江大学与网易伏羲ai实验室共同打造。
它可以从音频中单独生成实时的面部动画,更厉害的是,它还能调节音调和说话风格。该成果已经发布至arxiv:
arxiv地址:
https://arxiv.org/pdf/1905.11142.pdf
团队试图构建一个系统,既要逼真又要低延迟
“我们的方法完全是基于音轨设计的,没有任何其他辅助输入(例如图像),这就使得当我们试图从声音序列中回归视觉空间的过程将会越来越具有挑战。”论文共同作者解释道,“另一个挑战是面部活动涉及脸部几何表面上相关区域的多重激活,这使得很难产生逼真且一致的面部变形。”
该团队试图构建一个同时满足“逼真”(生成的动画必须反映可见语音运动中的说话模式)和低延迟(系统必须能够进行近乎实时的动画)要求的系统。他们还尝试将其推广,以便可以将生成的动画重新定位到其他3d角色。
他们的方法包括从原始输入音频中提取手工制作的高级声学特征,特别是梅尔频率倒谱系数(mfc),或声音的短期功率谱的表示。然后深度相机与mocap工具faceshift一起,捕捉配音演员的面部动作并编制训练集。
深度相机示意图
之后研究人员构建了带有51个参数的3d卡通人脸模型,控制了脸部的不同部位(例如,眉毛,眼睛,嘴唇和下巴)。最后,他们利用上述ai系统将音频上下文映射到参数,产生唇部和面部动作。
1470个音频样本加持,机器学习模型的输出“相当可以”
团队使用一个训练语料库,其中包含两个60分钟、每秒30帧的女性和男性演员逐行阅读剧本中台词的视频,以及每个相应视频帧的1470个音频样本(每帧总共2496个维度)。
团队报告说,与ground truth相比,机器学习模型的输出“相当可以”。它设法在测试音频上重现准确的面部形状,并且它一直“很好地”重新定位到不同的角色。此外,ai系统平均只需0.68毫秒即可从给定的音频窗口中提取特征。
该团队指出,ai无法跟随演员的眨眼模式,主要是因为眨眼与言语的相关性非常弱。不过从广义上讲,该框架可能为适应性强、可扩展的音频到面部动画技术奠定基础,这些技术几乎适用于所有说话人和语言。
“评估结果显示,我们的方法不仅可以从音频中产生准确的唇部运动,还可以成功地消除说话人随时间变化的面部动作,”他们写道。
国产工控主板的优势都有哪些呢?
众厂商竞逐激光雷达赛道,量产难题亟待破解
关于驭势科技在无人驾驶技术方面的优势
大理剪断光缆事件:是否因为当地“创卫”引发,街道办没有明确回应
分光光度计原理及结构
研究人员开发出一个端到端的机器学习系统Audio2Face
刘强东用行动证明鸿蒙系统与安卓不同
KUKAC4机器人焊钳拉拽程序分析sg_fehler ()w
直播内容抢先看 | 符合安全要求的软件测试解决方案
人像拍摄为何如此火爆,徕卡镜头给你答案
柔性屏幕不断演讲 口袋里的电脑渐行渐进
带DAC输出的多通道温度采集模块的设计
虹科干货 | 什么是数据库一致性?
光谱成像技术的分类
5G边缘云网关是工业数据采集所用的“利器”
爱生活享受生活,蒸汽拖把好用吗?
IGBT短路保护之退饱和即Desat概念
数控伺服系统的ADAMS/MATLA联合仿真研究
深入探讨FLASH被非法改写的问题
基于FPGA的高阶调制16APSK体制信号的相干解调算法浅析