一种在非线性绑定空间进行人脸表情编辑的新方法与流程

文档序号:14912442发布日期:2018-07-10 23:47阅读:239来源:国知局

本发明涉及动画制作领域,具体涉及一种在非线性绑定空间进行人脸表情编辑的新方法。



背景技术:

随着计算机图形学、虚拟现实及增强现实技术的发展,对虚拟角色(3D Avatar)人脸表情动画的应用的需求越来越大。尤其是在影视动画领域,角色表情基本上传递了角色的性格和情感的绝大多数信息,甚至推动情节的发展,是非常重要的研究与应用领域。目前最常用的人脸表情合成技术是blendshape(John P.Lewis et al.2014),它是一个线性模型,假设每一个表情都是若干基本表情的线性组合,而每一个基本表情对最终表情的贡献都由对应的权重来定义。而最常用的FACS(Ekman and Friesen 1978)模型至少有46个基本表情,而在实际应用中会更多。通过调节如此多的权重来编辑表情是非常耗时和低效的,因此有人提出了直接在屏幕上拖拽面部控制点来自动计算blendshape权重的方法(J.P.Lewis and Anjyo 2010),可大大提高动画师的工作效率。

然而,在实际的人脸表情编辑中,我们希望隐藏表情合成的技术细节,只为动画师提供一些基于高层语义的参数,我们称为“绑定空间参数”(rig space parameters)。而这些参数和表情模型之间未必是一个简单的线性关系。而且对于卡通动画这类有夸张表情的角色来说,除了blendshape之外通常还会使用复杂的分层样条曲线(Gong et al.2014),这样,绑定空间参数到人脸表情的映射会成为一个高度非线性函数。在这种情况下,(J.P.Lewis and Anjyo2010)的方法就没有办法使用了。



技术实现要素:

为解决上述问题,本发明提供了一种在非线性绑定空间进行人脸表情编辑的新方法,可适用于任何绑定技术实现的面部模型,尤其是那些具有夸张表情的卡通角色。

为实现上述目的,本发明采取的技术方案为:

一种在非线性绑定空间进行人脸表情编辑的新方法,通过高斯过程回归构建可以自动学习一个从若干面部控制点到绑定空间参数的非线性映射模型,然后通过该非线性映射模型调节面部控制点来控制绑定空间参数。

优选地,所述非线性映射模型通过以下步骤建立:

利用一个核函数k(x,x’)来定义两组数据x和x’之间的协方差,那么对于所有数据X,可以计算出一个协方差矩阵K:

给协方差矩阵增加一个正则化项,即K+λI,正则化参数λ是一个很小的标量,设置为1×10-5

计算一组新给定的面部控制点坐标x*和已有训练数据X之间的协方差K*=[k(x*,x1),k(x*,x2),…,k(x*,xn)]以及它自己的方差K**=k(x*,x*);

将f*的第i维作为一个样本表示成一个多元变量正态分布,如下所示:

其中,Fi是数据点F的第i维组成的向量,而则是f*的第i维。在给定训练数据的条件下,预测面部绑定空间参数fi的似然函数是:

取该正态分布的均值作为最终的预测结果,即:

而则是预测结果的方差,可以忽略。

优选地,所述核函数为:

其中,θ是核函数参数。

优选地,所述核函数参数θ为通过L-BFGS算法优化所得。

本发明具有以下有益效果:

大大简化了表情控制的复杂程度,可适用于任何绑定技术实现的面部模型,尤其是那些具有夸张表情的卡通角色。

附图说明

图1为一种在非线性绑定空间进行人脸表情编辑的新方法的原理图。

具体实施方式

为了使本发明的目的及优点更加清楚明白,以下结合实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

本发明实施例提供了一种在非线性绑定空间进行人脸表情编辑的新方法,通过高斯过程回归构建可以自动学习一个从若干面部控制点到绑定空间参数的非线性映射模型,然后通过该非线性映射模型调节面部控制点来控制绑定空间参数。

所述非线性映射模型通过以下步骤建立:

利用一个核函数k(x,x’)来定义两组数据x和x’之间的协方差,那么对于所有数据X,可以计算出一个协方差矩阵K:

给协方差矩阵增加一个正则化项,即K+λI,正则化参数λ是一个很小的标量,设置为1×10-5

计算一组新给定的面部控制点坐标x*和已有训练数据X之间的协方差K*=[k(x*,x1),k(x*,x2),…,k(x*,xn)]以及它自己的方差K**=k(x*,x*);

将f*的第i维作为一个样本表示成一个多元变量正态分布,如下所示:

其中,Fi是数据点F的第i维组成的向量,而则是f*的第i维。在给定训练数据的条件下,预测面部绑定空间参数fi的似然函数是:

取该正态分布的均值作为最终的预测结果,即:

而则是预测结果的方差,可以忽略。

将比较自然的表情作为训练数据,这一点很重要,因为我们的系统合成的表情是训练表情的非线性插值,高度依赖于训练数据。我们把所有控制点的坐标连接成一个向量x作为观察样本,而对应的绑定空间参数f则作为观察样本的标记。在我们的应用中,我们使用了410个样本,是对205个样本进行面部左右镜像操作后的结果。有了这些数据我们就可以训练高斯过程回归模型了。模型的可靠度是高度依赖于协方差矩阵的定义的,首先需要选择合适的核函数。我们测试了各种线性、非线性核,发现对于我们的应用来说,下面的核函数能够给出较好的效果。

其中,θ是核函数参数。为了得到较好的结果,需要选择适合给定训练数据的核函数参数。我们可以使用最大后验估计来估算θ,即当p(θ/x,f)最大的时候。根据贝叶斯理论,假定我们没有关于参数θ的先验知识,最大化p(θ/x,f)相当于最大化log(f/x,θ),即

我们先使用启发式搜索从一系列采样出的候选值中选出一个初始θ,然后再使用L-BFGS算法,优化出最终的θ值。

预测方程式需要计算核函数K的逆矩阵,而K和Fi都是已知的,因此我们可以通过K的Cholesky分解来预计算向量K-1Fi。这样,计算等同于计算两个向量的点积,是非常快的。表情的重建精度取决于训练样本的数量,一般数量越多精度越高,我们使用的410帧训练数据可以完全重建出动画师需要的自然表情。

如图1所示,我们实际上是用高斯过程建立了一个与传统表情动画编辑流程相反的映射关系,即从表情空间到绑定空间的映射。但当我们通过高斯过程回归拟合出绑定空间参数后,我们依然需要使用这条传统通道来重建最终的面部表情。训练和操作使用的数据X和x*都是稀疏控制点,因此向量x的维数只有18,远低于向量f的维数,这样就大大简化了表情控制的复杂程度。

图1中虚线箭头和线框表示的是在传统表情动画编辑流程里通过直接调节绑定空间参数来控制表情控制的方法。在训练阶段,我们学习一个从表情空间的降维控制点X到绑定空间参数F的映射。在实时操作阶段,用户调节控制点,系统接着调用式(4)预测绑定空间参数,然后通过红色表示的通道合成最终的表情动画。

上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1