基于快速表情信息提取和泊松融合的人脸表情合成方法

文档序号:10688082阅读:352来源:国知局
基于快速表情信息提取和泊松融合的人脸表情合成方法
【专利摘要】本发明公开了一种基于快速表情信息提取和泊松融合的人脸表情合成方法,主要解决现有技术不能快速有效提取表情细节信息,且不能将其信息合成到目标人脸上的问题。实现步骤是:1)依据脸部特征点数据得到对应表情模板;2)依据目标对象的表情形状模板将目标对象的中性表情图像和源对象的非中性表情图像变形到目标对象的非中性表情形状下;3)在频域提取源人物表情图像块形变后的表情细节信息;4)使用泊松融合的方法对提取的源对象表情细节进行滤波;5)对滤波后的表情细节信息,使用泊松融合的方法将其合成到目标对象的形变表情上,得到最终的合成结果。本发明所需样本量少,合成结果自然、逼真,可用于人物动画渲染、视频会议和人机交互。
【专利说明】
基于快速表情信息提取和泊松融合的人脸表情合成方法
技术领域
[0001] 本发明属于计算机视觉与计算机图形学领域,特别涉及一种人脸表情合成方法。 可用于人物动画渲染、视频会议和人机交互。
【背景技术】
[0002] 面部表情是内在主观情绪的外部体现形式之一,具有丰富的表达力。由于人脸表 情的多样性和复杂性,人脸表情合成不仅要考虑面部特征的整体运动和形变,还要考虑局 部细微的表情纹理变化,这些表情细节往往能更好的反应人脸的表情变化,但是这些表情 细节信息往往难以通过表情模拟来得到,可通过表情合成的方式得到逼真的表情细节。如 何从源对象复杂的表情中提取表情细节纹理,并将其有效的合成到其他对象脸上,使得合 成结果更加的自然、逼真仍然是一个有待探索的问题。
[0003] 总体而言,现有表情合成方法主要包含基于网格变形的合成方法以及基于数据驱 动的合成方法两大类。针对人脸结构的特殊性,所谓基于网格变形的表情合成技术,可以简 单的概括为通过系统建模对人脸的三维网格进行变形处理,从而实现人脸表情的合成。这 类方法从人脸表情形成的根本机理出发,充分模拟人脸形成表情时脸部结构单元的运动变 化,其能产生丰富、自然的表情变化。但是这类方法存在一些缺点,在使用时,如果用少量的 参数来模拟人脸表情,会丢失很多重要的表情细节信息,使得表情合成的结果不够真实;如 果使用大量的参数来全方位的模拟人脸表情的变化,又会使得计算量过大和模型结构过于 复杂,以致实用性比较差。针对这些问题,在实际使用中需要根据特定的要求来合理的构建 人脸表情模型。其中典型的方法有德克萨斯A&M大学的Parke等人在文献"Parke F,Waters !(?Computer facial animation.CRC Press,2008"中提出第一个参数化的虚拟人脸,其使 用了两类参数,即脸部表情控制参数和特定人脸识别参数来分别描述人脸的动态表情和静 态特征,通过这些参数的调整来实现表情的合成变化,由于选择的参数过于简单,使得这种 方法模拟的人脸表情变化会丢失很多的细节纹理信息。
[0004] 第二类是基于数据驱动的表情合成方法。其主要是利用已有的人脸表情数据来生 成新的表情,或者从已有的表情数据中提取丰富的表情细节信息,再将这些表情细节信息 合成至其他目标对象人脸上来模拟表情。典型的方法如微软的Zicheng Liu等人在文献 "Liu Z, Shan Y1Zhang Z. Expressive expression mapping with ratio images . In: Proceedings of the 28th annual conference on Computer graphics and interactive techniques ,271-276,2001"中,从图像域提取表情比例图,并将此表情比例 图合成到形变后的目标对象人脸上,这种方法能很好的提取表情纹理信息,实现逼真的表 情合成,但是其缺点就是对光照的变化比较敏感。
[0005] 这些表情合成方法主要依靠有效的从源带表情对象提取表情细节信息并将其充 分的融合到目标对象这两方面。大多数方法都是在图像域实现表情细节信息的提取和合 成。但是,基于图像域的处理方法易受光照和噪声的影响,提取出来的表情信息不够丰富; 此外,这些方法经常需要源对象的一个中性表情人脸图像来作为提取表情细节信息的参 考,这需要对齐源对象中性表情和非中性表情图像;并且这些方法大都通过简单的加权实 现源对象表情细节和目标对象面部特征的融合,导致表情细节的丢失较为严重。为此,上述 方法合成的面部表情效果往往不够显著,从而影响图像的视觉逼真度。

【发明内容】

[0006] 本发明目的在于克服上述已有技术的不足,提出一种基于快速表情信息提取和泊 松融合的人脸表情合成方法,以使合成的表情不仅能保持目标对象所特有的脸部特征,而 且能够包含更多的源对象所特有的表情细节信息,达到自然、逼真的合成效果。
[0007] 为实现上述目的,本发明的技术方案包括如下步骤:
[0008] (1)依据源对象的中性表情和非中性表情的人脸显著特征点的位置差异,得到目 标对象在非中性表情下的人脸显著特征点形状模板:
[0009] (Ia)从未标注的多表情人脸数据集中得到人脸的外轮廓、眉毛、眼睛、鼻子和嘴轮 廓的显著特征点位置数据,并将这些显著特征点位置数据信息标注在人脸对应的各区域的 轮廓上,依据标注结果对数据集进行筛选,得到标注准确的多表情数据集;
[0010] (Ib)从标注准确的多表情数据集中选择一组源对象和目标对象,根据源对象的中 性表情和非中性表情的人脸显著特征点的位置差异计算相应的表情差异向量D:
[0011] D = Se-Sn,
[0012] 其中,SjPSn分别为源对象对应非中性表情图像和中性表情图像的人脸显著特征 点位置信息;
[0013] (Ic)根据表情差异向量D和目标对象中性表情图像对应的人脸显著特征点位置信 息?η,得到目标对象在非中性表情下的形状模板T e3:
[0014] Te = D^Tn
[0015] (2)依据目标对象的表情形状模板Te3将目标对象的中性表情图像和源对象的非中 性表情图像变形到目标对象的非中性表情形状下;
[0016] (3)通过快速傅立叶变换方法将形变后的源对象的非中性表情图像变换到频域, 在频域提取该形变后源对象的表情细节;
[0017] (4)使用泊松融合的方法对提取的源对象表情细节进行滤波,减少合成结果中鼻 子区域的重影;
[0018] (5)对滤波后的表情细节信息,使用泊松融合的方法将其合成到目标对象的形变 表情上,得到最终的合成结果。
[0019] 本发明与已有的人脸表情合成方法相比,具有以下优点:
[0020] 1)本发明由于直接根据源对象非中性表情和中性表情人脸显著特征点的位置差 异计算相应的表情差异向量,将其与目标对象中性表情人脸显著特征点位置信息相结合, 得到目标对象在非中性表情下的形状模板,减少了样本数量,克服了传统方法需要大量的 训练样本来得到每个表情下的平均表情形状的缺点;
[0021] 2)本发明由于从图像的频域特性出发来分析和提取源非中性表情对象的表情纹 理细节信息,相比基于图像域的表情细节提取方法,该方法能提取更多、更精细的表情细节 信息。
[0022] 3)本发明由于考虑了对提取的表情细节信息使用泊松融合的方法进行滤波处理, 使得处理后的表情细节更加的鲁棒,减少了合成结果中鼻子区域的重影,有效的保持了目 标对象人脸的光照和肤色信息。
[0023] 4)本发明由于使用了泊松融合的方法将提取的源对象的表情细节信息合成到目 标对象上,使得合成的目标对象的表情不仅能有效的保留目标对象特有的脸部特征,而且 还包含了源对象的丰富表情细节信息。
【附图说明】
[0024]图1是本发明的实现总流程图;
[0025]图2是本发明对多表情人脸图像进行形状标记和Delaunay三角划分的示意图;
[0026] 图3是本发明使用泊松融合的方法对表情细节信息滤波处理后的示意图;
[0027] 图4是本发明中使用泊松融合的方法进行表情合成的子流程图。
【具体实施方式】
[0028] 下面将结合附图对本发明的具体实例和效果进行详细描述。
[0029]参照图1,本发明基于快速表情信息提取和泊松融合的人脸表情合成方法主要包 括如下步骤:
[0030] 步骤一,依据源对象的中性表情和非中性表情的人脸显著特征点的位置差异,得 到目标对象在非中性表情下的人脸显著特征点形状模板。
[0031] 本发明使用Multi-PIE数据集作为多表情人脸数据集,Milti-PIE数据集中包含 337个对象,每个对象有15种姿态信息和20种光照条件,根据采集时间的不同,每个采集时 间节点采集了不同的表情图像。本发明选取了Multi-PIE数据集中的400个表情序列,每个 表情序列都包括人脸中性表情和非中性表情,其中高兴的表情序列100个,惊讶的表情序列 100个,厌恶的表情序列100个,尖叫的表情序列100个。
[0032] 利用上述数据集,本步骤的实现如下:
[0033] (Ia)从未标注的多表情人脸数据集中得到人脸的外轮廓、眉毛、眼睛、鼻子和嘴轮 廓的显著特征点位置数据,并将这些显著特征点位置数据信息标注在人脸对应的各区域的 轮廓上,依据标注结果对数据集进行筛选,得到标注准确的多表情数据集:
[0034] (Ib)从标注准确的多表情数据集中选择一组源对象和目标对象,根据源对象的中 性表情和非中性表情的人脸显著特征点的位置差异计算相应的表情差异向量D:
[0035] D = Se-Sn,
[0036] 其中,SjPSn分别为源对象对应非中性表情图像和中性表情图像的人脸显著特征 点位置信息;
[0037] (Ic)根据表情差异向量D和目标对象中性表情图像对应的人脸显著特征点位置信 息?η,得到目标对象在非中性表情下的形状模板T e3:
[0038] Te = D*Tn.
[0039] 步骤二,依据目标对象的表情形状模板Te3将目标对象的中性表情图像和源对象的 非中性表情图像变形到目标对象的非中性表情形状下。
[0040] 根据图像特征基元的不同,图像变形的方法主要分三类:基于点的变形、基于线的 变形和基于面的变形,其中,基于点的变形的主要思想是通过学习像素点形变前后之间的 映射关系,得到对应特征点之间的空间映射函数,依据空间映射函数实现图像变形,这种基 于点的变形方法的代表性方法是基于径向基函数的变形算法,基于线的变形方法的主要思 想是用建立起来的那些特征线对表示图像上对应像素点的位置,这些像素点到特征线的距 离及其综合后的结果距离决定每个像素点在图像的偏移量,这种基于线的变形方法的代表 性方法是基于特征线对的图像变形算法,基于面的变形的主要思想是将整幅图像切分为若 干个四边形或三角形,用各个小块的变形结果拼接在一起组成一个整体结果来操作整幅图 像的变形,这种基于面的变形方法的代表性方法是基于三角剖分的变形算法,结合人脸图 像的结构信息,本实例采用的是基于面的变形算法中的D e I a u n a y三角剖分的变形算法,其 步骤如下:
[0041] (2a)取目标对象中性表情图像和源对象的非中性表情图像,根据人脸显著特征点 位置数据分别进行Delaunay三角划分,将人脸表示成若干三角形所组成的网格,其中目标 对象中性表情图像的三角划分结果如附图2(a)所示;
[0042] (2b)按照目标对象中性表情和目标对象非中性表情形状模板的三角形之间的对 应关系,通过仿射变换将目标对象的中性表情图像映射到目标对象的非中性表情形状下, 得到目标对象的中性表情形变图,如附图2 (b)所示。
[0043] (2c)按照源对象非中性表情和目标对象非中性表情形状模板的三角形之间的对 应关系,通过仿射变换将源对象的非中性表情图像映射到目标对象的非中性表情形状下, 得到源对象的非中性表情形变图。
[0044] 步骤三,通过快速傅立叶变换方法将形变后的源对象的非中性表情图像变换到频 域,在频域提取该形变后源对象的表情细节。
[0045] 目前对于细节信息的提取方法主要分为基于图像域的细节信息提取方法和基于 变换域的细节信息提取方法,基于图像域的细节信息提取方法的主要思想是通过源对象非 中性表情图像和源对象中性表情形变后的图像在图像域做差,得到的差值就是提取出来的 表情细节信息,这种方法得到的结果会包含很多的噪声信息,并且提取的表情细节信息不 够全面,不能很好的应用到表情合成中,基于变换域的表情细节信息提取方法的主要思想 将源对象非中性表情图像变换到其他图像域,在变换后的图像域中提取表情细节信息,这 种方法的代表性方法是基于小波变换的信息提取方法和基于快速傅立叶变换的信息提取 方法,基于小波变换的信息提取方法的处理速度比较慢,本实例使用基于变换域的表情细 节信息提取方法中的基于快速傅里叶变换FFT细节信息的提取,其步骤如下:
[0046] (3a)对源对象非中性表情图像按目标对象表情模板形变后得到的源对象的非中 性表情形变图进行快速傅里叶变换FFT,以得到表情图像的频谱图:
[0047] F(u,v)=FFT(f(x,y)),
[0048] 其中,f (x,y)表示源对象的非中性表情形变图,F(u,v)代表源对象的非中性表情 形变图对应的频谱图;
[0049] (3b)选定表情图像频谱图的截止频率ε,该截止频率ε的理想取值范围是ε e (〇. 3, 5 ),本实例统一取截止频率ε为等于1的常量,依据截止频率ε在频域提取表情图像的表情细 节信息;
[0050] (3c)对频域提取得到的源对象表情细节信息频谱图进行傅里叶逆变换IFFT,得到 源对象在图像域中的表情细节信息。
[0051] 步骤四,使用泊松融合的方法对提取的源对象表情细节进行滤波,减少合成结果 中鼻子区域的重影。
[0052] 常用的图像滤波去噪算法通常可以分为两大类,一类是对图像进行全局处理,一 类是使用局部算子,全局处理的主要思想是先对图像进行数学变换,然后再在变换域中进 行滤波,最后进行逆变换得到去噪后的图像,使用局部算子的方法的主要思想是对含噪图 像的某一像素进行处理,仅对该像素使用的局部算子,适用于无法或不便估计噪声模型的 情况,这类方法主要包括传统的领域平均法、中值滤波算法、模板平滑算法和泊松融合的方 法,其中领域平均法、中值滤波算法和模板平滑算法这些传统方法的一个共同缺点就是有 效滤除图像中噪声的同时,会使图像的边缘及细节变得较为模糊,这在一定程度上影响了 图像的处理效果,不符合保持尽量多的细节信息的初衷,考虑到光照因素在表情细节图像 中的空间位置信息,本实例使用局部算子方法中的泊松融合的方法对提取的源对象表情细 节进行滤波,其步骤如下:
[0053] (4a)依据得到的人脸表情模板提取出人脸鼻子处的特征点位置数据;
[0054] (4b)由得到的特征点位置数据在表情细节图像中确定一个矩形框区域,如附图3 (a)所示;
[0055] (4c)对衷情细节图像的矩形框K域,计算它的指导梯度场投影值〇
[0056]
[0057]其中α为等于0.05的常量,β为等于0.6的常量,p为矩形框区域内的像素点,q为矩 形框区域内像素点P的领域像素点,*?为表情细节图像矩形框区域内像素点P和领域像素 点q的指导梯度场投影值,/;为表情细节图像在矩形框区域内像素点P处的像素值,为表 情细节图像在矩形框区域内像素点q处的像素值;
[0058] (4d)依据表情细节图像的矩形框区域的指导梯度场投影值,将表情细节图像 滤波问,W拄仆,为龙艇加下晶W、仆,间颗.
[0059]
[0060] 其中Ω为表情细节图像需要滤波的矩形框区域,扣为矩形框区域Ω的边界,<p,q >为矩形框区域Ω的像素点p和像素点q组成的邻域像素对,fP表示待求的滤波后的表情细 节图像在像素点P处的像素值,f q表示待求的滤波后的表情细节图像在像素点q处的像素 值,<表示整幅表情图像在矩形框区域Ω外的图像在像素点P处的像素值,对于像素点 J3 e ("?.,满足

[0061] (4e)在(4d)的最小化问题加上狄利克雷边界条件,得到带狄利克雷边界条件的最 小化问腼」女带孙壬1丨古蕾抽圾落杜爲,丨、# 1、〇1腼的細满足以下联立线性等式:
[0062]
[0063] 其中.^表示整幅表情图像除去区域Ω后的图像在像素点的q处的像素值,Np为区 域Ω内像素点p的四邻域;
[0064] (4f)使用Guass-Seidel迭代法来求解(4e)的联立线性等式,得到滤波后表情细节 图像在像素点P处的像素值fP,使用像素值fP来更新区域Ω中P处的像素值,得到滤波后的表 情细节图像,如附图3(b)所示。
[0065] 步骤五,对滤波后的表情细节信息,使用泊松融合的方法将其合成到目标对象的 形变表情上,得到最终的合成结果。
[0066] 目前,对于表情细节信息和目标对象形变表情图像的融合,主要是在图像域或者 在空间域先利用表情细节图像计算一个平衡因子,再用平衡因子分别处理表情细节图像和 目标对象形变表情图像,最后直接将这两部分相加,得到最终的表情合成图像,考虑到表情 细节信息的结构性,本实例使用泊松融合的方法先计算表情细节图像的梯度场投影值,再 用该梯度场投影值来指导目标对象中性表情形变后图像的插值,得到最终的表情合成结 果。
[0067]参照图4,本步骤的具体实现如下:
[0068] (5a)计算滤波后表情细节图像的梯度场投影值:
[0069]
[0070] 其中P1为滤波后表情细节图像的像素点,如为像素点?1的领域像素点,匕表示滤波 后表情细节图像在像素点P 1处的像素值,Λ,表示滤波后表情细节图像在像素点9:处的像素 值;
[0071 ] (5b)依据滤波后表情细节图像的梯度场投影值.,将人脸表情合成问题转化为 求解如下最小化问题:
[0072]
[0073] 其中为形变后目标对象图像需要合成的区域,遂14为区域的边界,g为形变 后的目标对象图像,<Pi,qi>为区域的像素 Ap1和领域像素点qi组成的邻域像素对,心表 示待求的表情合成图像在像素点P 1处的像素值,A1表示待求的表情合成图像在像素点如处 的像素值,表示形变后的目标对象图像在区域大小外的图像在像素点的 ?1处的像素 值,对于像素点
[0074] (5c)对(5b)的最小化问题加上狄利克雷边界条件,得到带狄利克雷边界条件的最 小化问题,该带狄利克雷边界条件最小化问题的解满足以下联立线性等式:
[0075]
[0076] 其中g;表示形变后的目标对象图像除去区域后的图像在像素点的如处的像素 值,' 为区域Ω讷像素点?1的四邻域;
[0077] (5d)使用Guas s-Se i de 1迭代法求解(5c)的联立线性等式,得到目标对象的表情合 成图在像素点P1处的像素值使用像素值私,更新目标对象区域Ω $中?1处的像素值,得到 最终的合成结果,
[0078] 以上实例仅用以说明本发明的技术方案而非限制,本领域的普通技术人员应当理 解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神范 围,如将步骤三中用快速傅立叶变换FFT替换为离散傅立叶变换DFT进行频域分析的方法, 其均应涵盖在本发明的权利要求范围当中。
【主权项】
1. 基于快速表情信息提取和泊松融合的人脸表情合成方法,其特征在于:包括: (1) 依据源对象的中性表情和非中性表情的人脸显著特征点的位置差异,得到目标对 象在非中性表情下的人脸显著特征点形状模板: (la) 从未标注的多表情人脸数据集中得到人脸的外轮廓、眉毛、眼睛、鼻子和嘴轮廓的 显著特征点位置数据,并将这些显著特征点位置数据信息标注在人脸对应的各区域的轮廓 上,依据标注结果对数据集进行筛选,得到标注准确的多表情数据集; (lb) 从标注准确的多表情数据集中选择一组源对象和目标对象,根据源对象的中性表 情和非中性表情的人脸显著特征点的位置差异计算相应的表情差异向量D: D = Se-Sn, 其中,和Sn分别为源对象对应非中性表情图像和中性表情图像的人脸显著特征点位 置信息; (1C)根据表情差异向量D和目标对象中性表情图像对应的人脸显著特征点位置信息?η, 得到目标对象在非中性表情下的形状模板I: Te = D*Tn (2) 依据目标对象的表情形状模板I将目标对象的中性表情图像和源对象的非中性表 情图像变形到目标对象的非中性表情形状下; (3) 通过快速傅立叶变换方法将形变后的源对象的非中性表情图像变换到频域,在频 域提取该形变后源对象的表情细节; (4) 使用泊松融合的方法对提取的源对象表情细节进行滤波,减少合成结果中鼻子区 域的重影; (5) 对滤波后的表情细节信息,使用泊松融合的方法将其合成到目标对象的形变表情 上,得到最终的合成结果。2. 根据权利要求1所述的一种快速表情信息提取和泊松融合的人脸表情合成方法,其 特征在于:所述步骤(3)按如下步骤进行: (3a)对源对象表情图像按目标对象表情模板形变后对应的表情图像进行快速傅里叶 变换FFT,以得到表情图像的频谱图; (3b)选定表情图像频谱图的截止频率,在频域提取表情图像的表情细节信息; (3c)对频域提取得到的源对象表情细节信息频谱图进行傅里叶逆变换IFFT,得到源对 象在图像域中的表情细节信息。3. 根据权利要求1所述的快速表情信息提取和泊松融合的人脸表情合成方法,其特征 在于:所述步骤(4)中使用泊松融合的方法对提取的源对象表情细节进行滤波,按如下步骤 进行: (4a)依据得到的目标对象人脸表情模板提取出人脸鼻子处的特征点位置数据; (4b)由得到的特征点位置数据在表情细节图像中确定一个矩形框区域; (4c)对表情细节图像的矩形框区域,计算它的指导梯度场投影值〇其中α为等于〇.〇5的常量,β为等于0.6的常量,p为矩形框区域内的像素点,q为矩形框 区域内像素点P的领域像素点,^9为表情细节图像矩形框区域内像素点P和领域像素点q的 指导梯度场投影值,#为表情细节图像在矩形框区域内像素点P处的像素值,./『为表情细 节图像在矩形框区域内像素点q处的像素值; (4d)依据表情细节图像的矩形框区域的指导梯度场投影值V;,将表情细节图像滤波问 题转化为求解如下最小化问题:其中Ω为表情细节图像需要滤波的矩形框区域,0Ω为矩形框区域Ω的边界,<p,q>为矩 形框区域Ω的像素点p和像素点q组成的邻域像素对,fp表示待求的滤波后的表情细节图像 在像素点P处的像素值,表示待求的滤波后的表情细节图像在像素点q处的像素值,./;表 示整幅表情图像在矩形框区域Ω外的图像在像素点p处的像素值,对于像素点 Pe8Q,满足 fp = fp ; (4e)对(4d)的最小化问题加上狄利克雷边界条件,得到带狄利克雷边界条件的最小化 问题,该带狄利克雷边界条件最小化问题的解满足以下联立线性等式:其中 <表示整幅表情图像除去区域Ω后的图像在像素点的q处的像素值,NP为区域Ω内 像素点P的四邻域; (4f)使用Guass-Seidel迭代法来求解(4e)的联立线性等式,得到滤波后表情细节图像 在像素点P处的像素值fP,使用像素值fP来更新区域Ω中p处的像素值,得到滤波后的表情细 节图像。4.根据权利要求1所述的一种快速表情信息提取和泊松融合的人脸表情合成方法,其 特征在于:所述步骤(5)按如下步骤进行: (5a)计算滤波后表情细节图像的梯度场投影值 a-fq' 其中Pi为滤波后表情细节图像的像素点,qi为像素点Pi的领域像素点,/A表示滤波后表 情细节图像在像素点Pi处的像素值,為,表示滤波后表情细节图像在像素点如处的像素值; (5b)依据滤波后表情细节图像的梯度场投影值,将人脸表情合成问题转化为求解 如下最小化问题:其中iT为形变后目标对象图像需要合成的区域,srr为区域iT的边界,g为形变后的目 标对象图像,〈Pi,qi>为区域Ω $的像素点?1和领域像素点qjfi成的邻域像素对,I,表示待求 的表情合成图像在像素点P1处的像素值,I,表示待求的表情合成图像在像素点如处的像素 值,g表示形变后的目标对象图像在区域Ω呔小外的图像在像素点的 P1处的像素值,对于 像素点A e ,满足^ ; (5c)对(5b)的最小化问题加上狄利克雷边界条件,得到带狄利克雷边界条件的最小化 问题,该带狄利克雷边界条件最小化问题的解满足以下联立线性等式:其中 <表示形变后的目标对象图像除去区域后的图像在像素点的qi处的像素值, 乂为区域Ω*内像素点?1的四邻域; (5d)使用Guass-Seidel迭代法求解(5c)的联立线性等式,得到目标对象的表情合成图 在像素 AP1处的像素值,使用像素值心更新目标对象区域Ω %P1处的像素值,得到最终 的合成结果。
【文档编号】G06T5/50GK106056650SQ201610312142
【公开日】2016年10月26日
【申请日】2016年5月12日
【发明人】田春娜, 李海洋, 高新波, 袁博, 王秀美, 李明郎君
【申请人】西安电子科技大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1