基于视频的三维人脸动画驱动方法和系统的制作方法

文档序号:6464802阅读:194来源:国知局
专利名称:基于视频的三维人脸动画驱动方法和系统的制作方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于视频的三维人脸动画驱 动方法和系统。
背景技术
三维人脸动画技术起步于70年代,其后的研究者做了很多工作以期能够 生成逼真生动的三维人脸动画。当前更进一步的研究方向是,人们希望能够实 时的模拟真实人脸的各种表情和动作,但是由于人脸生理结构本身的复杂性, 以及人们对人脸外观的敏感性,使得达到这一目标非常困难。
一种简单的实现方式是,可以通过检测视频数据中人脸器官特征点的变化 来驱动三维人脸模型中的脸部器官,从而达到实时模拟的动画效果。例如,已 经上市的罗技的产品可以通过摄像头釆集的视频数据来驱动相应的三维脸部 器官,进而实现三维人脸动画。
在具体实现中,首先对视频图像中某一人脸上的嘴巴器官的特征点进行实 时检测和跟踪,如果检测到其发生了运动变化,则进一步依据预置条件,判定 视频中嘴巴器官的运动是张开运动还是闭合运动,进而驱动相应三维模型中的 嘴巴器官同时作张开运动或闭合运动。同理,也可以实现通过追踪视频图像中 某一人脸上的眉毛、眼睛等器官的特征点变化,实现对三维模型中相应器官的 驱动。进而,通过对各个器官的实时跟踪驱动,获得所需的实时模拟动画效果。
但是,由于上述现有技术的核心构思是通过追踪每个器官特征点的变化来 对三维人脸^t型的脸部器官进行驱动,进而达到动画效果的;而在实际应用中
由于处理速度和计算难度的限制,使得通过上述现有技术所能达到的实际的动 画效果比较简单,不够逼真,例如对于嘴巴的驱动,只能实现筒单的嘴巴张开 和闭合,对眉毛的驱动则只能简单的实现眉毛的上下运动。
基于上述对具体处理过程的描述,易于看出,现有的解决方案只能简单的 完成单个器官的相应驱动,非常机械,难以实现更加逼真、更加真实的三维人
脸动画。

发明内容
本发明所要解决的技术问题是提供一种基于视频的三维人脸动画驱动方 法和系统,能够实现更加逼真、更加真实的三维人脸动画。
为了解决上述问题,本发明公开了 一种基于视频的三维人脸动画驱动方
法,包括以下步骤识别视频图像中的人脸表情;根据表情识别结果和该表情 相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三 维人脸动画。
优选的,所述方法还可以包括依据当前人脸表情的具体程度对通用三维 人脸模型上相应的局部人脸器官进行微调。
进一步的,识别当前表情的具体程度可以通过如下步骤实现检测跟踪视 频图像中所需人脸器官的特征点运动数据;依据所述检测跟踪数据,识别当前 表情的具体程度。
优选的,所述方法还可以包括依据器官变形程度对通用三维人脸模型上 相应的器官进行局部微调。
进一步的,确定器官的变形程度可以通过以下步骤实现检测跟踪视频图 像中所需人脸器官的特征点运动数据,定位得到视频图像中器官的位置和大 小;将得到的器官的位置和大小与标准模型中相应器官的位置和大小进行比 较,获得该器官的变形程度。
优选的,所述方法中对通用三维人脸模型上的变形操作可以通过驱动预置 控制点来实现。
进一步的,当变形操作针对的器官是嘴巴时,所述预置控制点分布于上嘴 唇、下嘴唇、和嘴角。
进一步的,当变形操作针对的器官是眼睛时,所述预置控制点分布于上、 下眼睑和眼角。
进一步的,当变形操作针对的器官是眉毛时,所述预置控制点分布于左眉 毛和右眉毛。
优选的,所述方法中,当表情识别结果是"笑"时,预置的驱动规则为下
眼睑上的控制点整体向上运动;上嘴唇上的控制点平行上升,并向两边拉升; 下嘴唇上的控制点依序连接形成抛物线的形状。
优选的,所述方法中,当表情识别结果是"惊讶"时,预置的驱动规则为 上、下嘴唇的控制点相对于嘴巴中心点分别向上、下运动;嘴角的控制点向嘴 巴中心点运动;上、下嘴唇上的控制点同嘴角控制点依序连接形成两个抛物线 形状;眉毛控制点向上运动。
优选的,所述方法中,当表情识别结果是"愤怒"时,预置的驱动规则为 上嘴唇的控制点整体向上平移;下嘴唇的控制点向下运动;下嘴唇的控制点同 嘴角控制点依序连接形成抛物线形状;眉毛控制点向上运动。
根据本发明的实施例,还公开了一种基于视频的三维人脸动画驱动的系 统,包括表情识别装置,用于识别视频图像中的人脸表情;存储装置,用于 存储预置的多个驱动规则;驱动装置,用于根据表情识别结果和该表情相应的 预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸 动画。
优选的,所述系统中还可以包括第一微调装置,用于依据当前人脸表情 的具体程度对通用三维人脸模型上相应的局部人脸器官进行微调。
进一步.的,所述第一微调装置包括检测跟踪单元,用于检测跟踪视频图 像中所需人脸器官的特征点运动数据;对比单元,用于依据所述检测跟踪数据, 识别当前表情的具体程度;调整单元,用于根据被识别表情的具体程度,对通 用三维人脸模型上需要局部变形的器官进行微调。
优选的,所述系统中还可以包括第二微调装置,用于依据器官变形程度 对该器官进行局部微调。
进一步的,所述第二微调装置包括检测定位单元,用于检测跟踪视频图 像中所需人脸器官的特征点运动数据,定位得到视频图像中 一器官的位置和大 小;匹配单元,用于将所述器官的位置和大小与标准模型中的器官位置和大小 进行比较,获得该器官的变形程度;协调单元,用于根据器官的变形程度,对 通用三维人脸模型上需要局部变形的器官进行微调。
与现有技术相比,本发明具有以下优点
首先,本发明不是针对单个器官的驱动过程,而是先识别视频图像数据中 人脸图像的表情(例如,哭、笑等),然后依据预设的器官驱动规则,再来驱
动相应的三维人脸;f莫型中的器官,进而实现所需的三维动画效果。由于人脸的
表情比较复杂,各个器官之间有较强的联动关系,因此,通过依据所识别的人
脸表情对各个相应的器官进行统一的驱动,可以达到更加逼真的动画效果;可 以避免现有技术采用单个器官驱动时,由于单个器官特征点的运动^f企测误差而 导致的动画效果偏差。
其次,本发明还可以进一步实时检测视频图像中的器官特征点运动数据, 以确定某个表情的程度(例如,表情为笑,程度包括大笑、微笑等)或者某个 器官的变形程度,进而依据所确定的表情程度或变形程度对器官的局部进行微 调,以实现对三维模型器官的精细化驱动,从而得到非常逼真,与真实人脸非 常相似的三维动画效果。


图l为本发明的一种三维人脸动画制作方法实施例的步骤流程图; 图2为本发明通过识别人脸表情的具体程度的方法进行微调的 一个实施 例的步骤流程图3为本发明通过识别人脸器官变形程度的方法进行微调的一个实施例 的步骤流程图4为 一个中性表情的人脸示意图4-1为本发明具体实施例中,人脸表情为笑时的示意图; 图4-2为本发明具体实施例中,人脸表情为笑时,下嘴唇上控制点示意图; 图5-l为本发明具体实施例中,人脸表情为惊讶时的示意图; 图5-2为本发明具体实施例中,人脸表情为惊讶时,上、下嘴唇上控制点 示意图5_3为本发明具体实施例中,人脸表情为惊讶时,眉毛上控制点示意图; 图6-l为本发明具体实施例中,人脸表情为愤怒时的示意图; ' 图6-2为本发明具体实施例中,人脸表情为愤怒时,上、下嘴唇上控制点 示意图7-l至7-3为本发明具体实施例中,人脸不同程度的笑脸示意图; 图8为本发明基于视频的三维人脸动画驱动的系统实施例的结构框图; 图9为本发明第 一微调装置实施例的结构框图; 图10为本发明第二微调装置实施例的结构框图。
具体实施例方式
下面结合附图和实施例,对本发明的具体实施方式
作进一步详细描述。以 下实例用于说明本发明,但不用来限制本发明的范围。
本发明的核心思想在于依据人脸图像的表情将三维人脸模型的器官进行 整体变形,实现所需的三维动画效果,在整体变形后还可以依据所判断的表情 程度或器官变形程度对器官的局部进行微调,以实现对三维模型器官的精细化 驱动,从而得到非常逼真,与真实人脸非常相似的三维动画效果。
参考图1,示出了一种三维人脸动画制作方法实施例,具体可以包括
步骤IOI、输入通用三维人脸模型;通用三维人脸模型一般可以采用三维 造型软件(比如3DMax、 Maya等)来制作;
步骤102、获取视频人脸图像;
步骤103、识别视频图像中的人脸表情;人脸表情识别具体的实现方法有 很多,例如,中国专利申请号为200710019296.1,名称为"人脸表情图像的 分类及语义评判量化方法"中公开了一种,其具体方案为利用训练人脸表情 图像样本集,提取表情特征形成标记图LG向量,将其投影到主成分PCA子空 间中,利用这些降维后的LG向量学习混合多维t-分布,作为该图像六种基本 情感的语义评判,按照哪个表情所占的概率最大,从而把该图像判到该表情类 中。再例如,中国专利申请号为200710032511.1,名称为"一种会话机器人 系统"中也公开了 一种基于人脸检测(定位)和人脸表情的特征提取进行人脸 表情识别(分类)的方法,不再赘述;
步骤104、调用与所识别的表情结果相匹配的预置驱动规则;例如,在数 据库中存储了多个针对不同表情的驱动规则。
步骤105、使用预置驱动规则驱动通用三维人脸模型上器官的运动,得到 三维人脸动画。步骤104、 105中预置驱动规则可以通过规定如何驱动通用三维人脸模型 上的点来实现;因为,通用三维人脸模型是由点构成,驱动这些点运动就可以
改变通用三维人脸模型器官的变形。
为了节省时间和节约运算资源,我们可以选择驱动控制点(即一部分主要 的点)的运动,来改变器官的变形。由于当器官发生变形时这些控制点的变化 最为明显,所以,通常通过驱动控制点的运动可以完成的人脸器官变化的效果, 往往需要驱动多出控制点数十倍以上的非控制点的运动才能达到相同的效果。
优选的,在眼睛、眉毛、嘴巴等人脸器官上选择控制点,因为在人脸表情 发生变换时,这些器官的变化明显,对这些器官的准确定位能更加逼真的反映 真实人脸的情况。当然,对于数量而言,控制点数量越多,越能逼真的反映真 实人脸。
需要说明的是, 一般需要依变形的器官不同而选择不同的控制点,例如 当变形操作针对的器官是嘴巴时,控制点可以分布于上嘴唇、下嘴唇、和嘴角 (参见图4-2、 6-2中圓圈所示);当变形操作针对的器官是眼睛时,控制点可 以分布于上、下眼睑和眼角;当变形操作针对的器官是眉毛时,控制点可以分 布于左眉毛和右眉毛上(参见图5-3中圆圏所示)。具体的,在选择控制点时, 我们可以选择利用三维模型编辑系统完成对通用三维人脸模型控制点的选择。
人脸可以有各种各样的表情,但典型的表情有以下几类中性,笑,愤怒, 惊讶,我们以上述几种表情为基础来研究人脸器官的变形方式,我们认为中性 表情时人脸器官没有任何运动,参考图4,为中性表情的人脸示意图。
下面仔细描述当表情为"笑"、"惊讶,,和"愤怒,,时,预置驱动规则的具 体实施方式。
参考图4-1,给出了当人脸表情是"笑,,的时候,相对于中性表情人脸的 变化情况。
当人脸表情是"笑"的时候, 一种优选的预置驱动规则为下眼睑上的控 制点整体向上运动;上嘴唇上的控制点平行上升,并向两边拉升;下嘴唇上的 控制点依序连接形成抛物线的形状。
当人脸表情是"笑"的时候,下眼睑会向上微微的运动,所以可以简单的
抽象为整体向上运动,而眉毛可以认为没有运动;最明显的变化是上、下嘴唇, 所以可以设置上嘴唇上的控制点在y方向是平行上升的,在x方向上则向两边 拉升;下嘴唇上的控制点则可以认为从直线变形到一个抛物线的形状。
下嘴唇的变形可以用抛物线来表达y = ^2-",该抛物线具体示图见图 4-2,图中包含了两根线条,上面的直线代表了中性表情时下嘴唇的位置,下 面的曲线是利用公式少=^2-"来生成,圆圈点代表了嘴唇上的控制点。嘴唇 的中心点的^坐标为0,左右的控制点对称分布(例如,间隔为0.25mm),将 控制点的^坐标代入抛物线公式可以计算出^值,根据y值就可以驱动嘴唇点 的变形来产生笑的表情。调整^ =孤2-"中的"值可以产生不同弯曲程度的抛物 线,用来模拟不同程度的笑对应的下嘴唇变形。
参考图5-1,给出了当人脸表情是"惊讶"时,相对于中性表情人脸的变 化情况。
当人脸表情是"惊讶,,的时候, 一种优选的预置驱动规则为上、下嘴唇 的控制点相对于嘴巴中心点分别向上、下运动;嘴角的控制点向嘴巴中心点运 动;上、下嘴唇上的控制点同嘴角控制点依序连接形成两个抛物线形状;眉毛 控制点向上运动。
当人脸表情是"惊讶,,的时候,嘴巴的变化可以认为是上下嘴唇都变化为 抛物线,同时嘴角往嘴巴的中间收缩;所以在设置上下嘴唇的变形时可以用抛 物线函数y-o^+6表示,我们可以假设不同程度的"惊讶"时,代表嘴唇的 抛物线都和x轴交于相同的位置。那么抛物线的函数可以简化为y = "x2-"或 者少=-ax2+a;抛物线的极值点为乂= 0时的点,那么该点的变形幅度就为a, x =0. 5对应的点的变形幅度就为0. 75a;我们可以取不同的x值来计算出变形的 幅度,从而得到不同点的运动幅度值。参考图5-2,当为"惊讶,,表情时,图 中圓圈点代表了嘴唇上的控制点,上面的线条代表了上嘴唇变形,利用公式 少=—^+"来生成,下面的线条代表了下嘴唇变形,利用公式^^^-"来生成, 不同的"可以生成不同变形程度的抛物线。
参考图5-1,当为"惊讶"表情时,眉毛的变化是明显的上扬,我们可以 用 一个简单的变形算法来描述眉毛的上扬,该算法首先在眉毛的中心位置选择
一个控制点,并在控制点的附近确定一个邻域。根据控制点和邻域点的位置来 计算控制点到所有邻域点的最大距离max丄,那么当控制点运动时,邻域点的 运动可以用7>式
F.(cos("^"/) + l)/2 max丄
来计算,公式中V代表了控制点的运动矢量,L表示控制点到邻域点的距离,这 个公式可以保证离控制点越近的点的运动距离越大,最远的点保持不变;参考 图5-3,最中间的点是控制点,它的移动最大,左右点是邻域点,其变形程度 跟该点到控制点的距离成反比,两端的两个点没有移动。
参考图6-1,给出了当人脸表情是"愤怒"时候,相对于中性表情人脸的 变化情况。
当人脸表情是"愤怒,,的时候, 一种优选的预置驱动规则为上嘴唇的控 制点整体向上平移;下嘴唇的控制点向下运动;下嘴唇的控制点同嘴角控制点 依序连接形成抛物线形状;眉毛控制点向上运动。
当人脸表情是"愤怒,,的时候,眉毛的变化可以采用上述惊讶时的驱动方 式,只是眉毛的眉角上的控制点在方向上整体向上运动;嘴巴变化和"惊讶,, 表情时比较类似,只是上嘴唇的变形不再使用标准的抛物线,而是让上嘴唇中 间的几个点向上整体平移;参考图6-2,圆圈点是嘴唇上的控制点,上面的线 条代表了上嘴唇的变形,圆圈控制点整体上移,下面的曲线代表了下嘴唇的变 形,类似"笑,,的下嘴唇变形,可以利用公式^^^来生成。
当根据表情识别结果选择预置驱动规则对人脸器官进行变形操作后,能够 大致和视频中的人脸相似,但是不能反映出不同程度的脸部表情,所以在细节 上还是不像,为此我们需要在基于表情识别的人脸变形基础上,对人脸器官的 局部进行微调,使最终的变形结果和真实的人脸表情相似,这种微调可以依据 所识别的视频图像中的人脸表情程度或人脸器官变形程度来相应的驱动局部 器官的调整。
参考图2,示出了通过识别人脸表情的具体程度的方法进行微调的一种实 施例,该方法包4舌
步骤201、检测跟踪视频图像中所需人脸器官的特征点运动数据; 步骤202、依据所述检测跟踪数据,识别当前表情的具体程度; 步骤203、对人脸模型中需要变形的器官整体进行调整。 使用上述方法进行微调动作时,先是整体判断人脸表情的具体程度(例如, 参考图7-1至图7-3,给出不同程度的笑的表情),然后根据判断的结果对相 应需要变形的器官整体进行调整;而下述通过识别人脸器官变形程度的方法进 行微调的实施例中则是先获取视频中人脸器官的变形程度,再逐个对需要变形 的人脸模型上器官进行调整,使其和真实的人脸表情更加相似。
参考图3,示出了通过识别人脸器官变形程度的方法进行微调的一种实施 例,该方法包4舌
步骤301、检测跟踪视频图像中所需人脸器官的特征点运动数据,定位得 到视频图像中器官的位置和大小;
步骤302、将得到的器官的位置和大小与标准模型中相应器官的位置和大 小进行比较,获得该器官的变形程度;
步骤303、对人脸模型中需要变形的器官逐个进行调整。 本发明还公开了一种基于视频的三维人脸动画驱动的系统,参考图8。 图8中所示的系统包括表情识别装置401,用于识别视频图像中的人脸 表情;存储装置402,用于存储预置的多个驱动规则;驱动装置403,用于根 据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变 形的器官进行变形,得到三维人脸动画。
从视频获取人脸图像之后,将人脸图像输入表情识别装置,表情识别装置 对输入的人脸图像表情进行识别(判断这人脸图像是笑还是哭还是其它的什么 表情),将识别结果输入驱动装置,驱动装置判断输入的表情识别结果同存储 装置中的哪个驱动规则对应,从存储装置中调用对应的驱动规则对通用三维人 脸模型进行驱动。
图8中所示的系统还可以包括第一微调装置;第一微调装置,用于依据当 前人脸表情的具体程度对通用三维人脸模型上相应的人脸器官整体进行调整。 参考图9,第一微调装置进一步包括 一企测跟踪单元501,用于检测跟踪视频
图像中所需人脸器官的特征点运动数据;对比单元502,用于依据所述检测跟 踪数据,识别当前表情的具体程度;调整单元503,用于根据被识别表情的具 体程度,对通用三维人脸模型上需要变形的器官整体进行调整。
上述的第一微调装置可以用下述的第二微调装置替代,实施例9,基于视 频的三维人脸动画驱动的系统还可以包括第二微调装置;第二微调装置用于依 据器官变形程度对相应器官逐个进行调整。参考图10,所述第二微调装置进 一步包括检测定位单元601,用于检测跟踪视频图像中所需人脸器官的特征 点运动数据,定位得到视频图像中一器官的位置和大小;匹配单元602,用于 将所述器官的位置和大小与标准模型中的器官位置和大小进行比较,获得该器 官的变形程度;协调单元603,用于根据器官的变形程度,对通用三维人脸模 型上需要局部变形的器官逐个进行调整。
为了微调的效果更好,在不考虑成本的情况下,我们可以将第一微调装置 和第二微调装置并存,既依据当前人脸表情的具体程度对通用三维人脸模型上 相应的人脸器官整体进行调整,同时又依据器官变形程度对相应器官逐个进行 调整。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的 都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即 可。对于系统实施例而言,由于其与方法实施例基本相似,所以描述的比较简 单,相关之处参见方法实施例的部分说明即可。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通 技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和润 饰,这些改进和润饰也应视为本发明的保护范围。
权利要求
1、一种基于视频的三维人脸动画驱动方法,其特征在于,包括以下步骤识别视频图像中的人脸表情;根据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸动画。
2、 根据权利要求1所述的方法,其特征在于,还包括依据当前人脸表 情的具体程度对通用三维人脸模型上相应的局部人脸器官进行微调。
3、 根据权利要求2所述的方法,其特征在于,通过如下步骤识别当前表 情的具体程度检测跟踪视频图像中所需人脸器官的特征点运动数据; 依据所述检测跟踪数据,识别当前表情的具体程度。
4、 根据权利要求1所述的方法,其特征在于,还包括依据器官变形程 度对通用三维人脸模型上相应的器官进行局部微调。
5、 根据权利要求4所述的方法,其特征在于,通过以下步骤确定器官的 变形程度检测跟踪视频图像中所需人脸器官的特征点运动数据,定位得到视频图像 中器官的位置和大小;将得到的器官的位置和大小与标准模型中相应器官的位置和大小进行比 较,获得该器官的变形程度。
6、 根据权利要求1所述的方法,其特征在于,所述对通用三维人脸模型 上的变形纟乘作是通过驱动预置控制点而实现的。
7、 根据权利要求6所述的方法,其特征在于,当变形操作针对的器官是 嘴巴时,所述预置控制点分布于上嘴唇、下嘴唇、和嘴角。
8、 根据权利要求6所述的方法,其特征在于,当变形操作针对的器官是 眼睛时,所述预置控制点分布于上、下眼睑和眼角。
9、 根据权利要求6所述的方法,其特征在于,当变形操作针对的器官是 眉毛时,所述预置控制点分布于左眉毛和右眉毛。
10、 根据权利要求1-5所述的任一项方法,其特征在于,当人脸表情是"笑,,时,预置的驱动规则为下眼险上的控制点整体向上运动;上嘴唇上的控制点 平行上升,并向两边拉升;下嘴唇上的控制点依序连接形成抛物线的形状。
11、 根据权利要求1-5所述的任一项方法,其特征在于,当人脸表情是"惊 讶"时,预置的驱动规则为上、下嘴唇的控制点相对于嘴巴中心点分别向上、 下运动;嘴角的控制点向嘴巴中心点运动;上、下嘴唇上的控制点同嘴角控制 点依序连接形成两个抛物线形状;眉毛控制点向上运动。
12、 根据权利要求1-5所述的任一项方法,其特征在于,当人脸表情是"愤 怒"时,预置的驱动规则为上嘴唇的控制点整体向上平移;下嘴唇的控制点 向下运动;下嘴唇的控制点同嘴角控制点依序连接形成抛物线形状;眉毛控制 点向上运动。
13、 一种基于视频的三维人脸动画驱动的系统,其特征在于,包括 表情识别装置,用于识别视频图像中的人脸表情;存储装置,用于存储预置的多个驱动规则;驱动装置,用于根据表情识别结果和该表情相应的预置驱动规则对通用三 维人脸模型上需要变形的器官进行变形,得到三维人脸动画。
14、 根据权利要求13所述的系统,其特征在于,还包括第一微调装置, 用于依据当前人脸表情的具体程度对通用三维人脸模型上相应的局部人脸器 官进行孩t调。
15、 根据权利要求14所述的系统,其特征在于,所述第一微调装置进一 步包括检测跟踪单元,用于检测跟踪视频图像中所需人脸器官的特征点运动数据;对比单元,用于依据所述检测跟踪数据,识别当前表情的具体程度; 调整单元,用于根据被识别表情的具体程度,对通用三维人脸模型上需要 局部变形的器官进行微调。
16、 根据权利要求13所述的系统,其特征在于,还包括第二微调装置, 用于依据器官变形程度对该器官进行局部微调。
17、根据权利要求16所述的系统,其特征在于,所述第二微调装置进一步包括检测定位单元,用于检测跟踪视频图像中所需人脸器官的特征点运动数 据,定位得到视频图像中一器官的位置和大小;匹配单元,用于将所述器官的位置和大小与标准模型中的器官位置和大小 进行比较,获得该器官的变形程度;协调单元,用于根据器官的变形程度,对通用三维人脸模型上需要局部变 形的器官进行微调。
全文摘要
本发明公开了一种基于视频的三维人脸动画驱动方法和系统,该方法可以包括以下步骤识别视频图像中的人脸表情;根据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸动画。与现有技术相比,本发明的优点在于本发明先识别视频图像数据中人脸图像的表情,然后依据预设的器官驱动规则,再来驱动相应的三维人脸模型中的器官,可以达到更加逼真的动画效果;避免现有技术采用单个器官驱动时,由于单个器官特征点的运动检测误差而导致的动画效果偏差。
文档编号G06T15/70GK101354795SQ20081011904
公开日2009年1月28日 申请日期2008年8月28日 优先权日2008年8月28日
发明者浩 王, 谢东海, 英 黄 申请人:北京中星微电子有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1