人脸活体检测的方法和装置与流程

文档序号:13682014阅读:171来源:国知局
技术领域本发明属于人脸识别领域,特别是指一种人脸活体检测的方法和装置。

背景技术:
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行识别的一系列相关技术。现有技术中判断采集到的人脸图像是否是活体图像一般采用如下方法:要求用户做出指定的动作,如眨眼、张嘴等,并采集人脸图像,根据采集到的人脸图像判断用户是否完成了指定的动作,如果是,则判断采集到的人脸图像为活体图像。但是,这种方法对用户很不友好,并且一些非法用户可以使用预先录制的包含指定的动作的视频欺骗人脸识别设备,导致识别准确度低。

技术实现要素:
本发明提供一种人脸活体检测的方法和装置,本发明能够判断人脸图像是否是活体,并且识别的精确度高,识别结果具有鲁棒性和稳定性。为解决上述技术问题,本发明提供技术方案如下:一方面,提供一种人脸活体检测的方法,包括:采集3D人脸图像;在所述3D人脸图像的整个区域上选择第一组特征点,并获取所述第一组特征点的三维坐标;在所述3D人脸图像的局部区域上选择第二组特征点,并获取所述第二组特征点的三维坐标;所述局部区域为鼻子区域、眼睛区域或嘴巴区域;使用所述第一组特征点的三维坐标计算得到表示所述第一组特征点的深度信息的第一人脸特征;使用所述第一组特征点和第二组特征点的三维坐标计算得到表示所述第一组特征点和第二组特征点的深度信息的第二人脸特征;使用所述第一人脸特征和/或第二人脸特征判断所述3D人脸图像是否是活体。另一方面,提供一种人脸活体检测的装置,包括:采集模块,用于采集3D人脸图像;第一选择模块,用于在所述3D人脸图像的整个区域上选择第一组特征点,并获取所述第一组特征点的三维坐标;第二选择模块,用于在所述3D人脸图像的局部区域上选择第二组特征点,并获取所述第二组特征点的三维坐标;所述局部区域为鼻子区域、眼睛区域或嘴巴区域;第一提取模块,用于使用所述第一组特征点的三维坐标计算得到表示所述第一组特征点的深度信息的第一人脸特征;第二提取模块,用于使用所述第一组特征点和第二组特征点的三维坐标计算得到表示所述第一组特征点和第二组特征点的深度信息的第二人脸特征;判断模块,用于使用所述第一人脸特征和/或第二人脸特征判断所述3D人脸图像是否是活体。本发明具有以下有益效果:本发明能够判断人脸图像是否是活体。首先采集得到3D人脸图像,并在3D人脸图像上选择第一组特征点,到第一组特征点的三维坐标;再通过三维坐标计算得到第一人脸特征,该第一人脸特征能够表示第一组特征点的深度信息(即反映3D人脸图像整体的深度信息);然后在3D人脸图像的局部区域上选择第二组特征点,并获取第二组特征点的三维坐标,并使用第一组特征点和第二组特征点的三维坐标计算得到表示第一组特征点和第二组特征点的深度信息的第二人脸特征,该第二人脸特征能够表示第一组特征点和第二组特征点的深度信息(即反映3D人脸图像整体的深度信息和局部深度信息);最后使用第一人脸特征和第二人脸特征判断人脸图像是否是活体。本发明精确度高。本发明利用3D人脸图像上第一组特征点和第二组特征点的深度信息(即3D人脸图像整体的深度信息和局部深度信息)来判断人脸图像是否是活体,并且进一步提取出第一人脸特征来表征深度信息,使得识别的精确度高。并且,第一人脸特征和第二人脸特征具有鲁棒性和稳定性,能够很好的表征人脸图像整体的深度信息,使得识别结果也具有鲁棒性和稳定性。综上所述,本发明的人脸活体检测的方法能够判断人脸图像是否是活体,并且识别的精确度高,识别结果具有鲁棒性和稳定性。附图说明图1为本发明的人脸活体检测的方法的一个实施例的流程图;图2为本发明实施例中3D摄像头给出坐标值的各个点的示意图;图3为本发明实施例中第一组特征点的一个选择方式示意图;图4为本发明实施例中第二组特征点的一个选择方式示意图;图5为本发明的人脸活体检测的装置的一个实施例的示意图。具体实施方式为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。一方面,本发明实施例提供一种人脸活体检测的方法,如图1所示,包括:步骤101:采集3D人脸图像。本步骤中,优选使用3D摄像头采集得到3D人脸图像。步骤102:在3D人脸图像的整个区域上选择第一组特征点,并获取第一组特征点的三维坐标。普通的2D人脸图像只能得到特征点的二维坐标,而3D人脸图像能够得到特征点的三维坐标,例如有的3D摄像头能够直接给出3D人脸图像上一些点的三维坐标,其他点的三维坐标可以通过计算得出,我们可以选择这些点作为第一组特征点,也可以选择其他的点作为第一组特征点。第一组特征点可以在整个3D人脸图像上均匀的选择,也可以在3D人脸图像上的重点区域,重点区域是指3D人脸图像上起伏较大的地方,例如可以是鼻子,眼睛嘴巴等。得到第一组特征点的三维坐标的前提是已经确定出了三维坐标系,三维坐标系在选择时,可以将3D摄像头面向用户的方向作为z轴的正方向,x轴和y轴的正方向可以根据右手坐标系确定。步骤103:在3D人脸图像的局部区域上选择第二组特征点,并获取第二组特征点的三维坐标;局部区域为鼻子区域、眼睛区域或嘴巴区域.上述第一组特征点是在整个人脸上选择的,它能够反映3D人脸图像整体的深度信息,我们还可以在3D人脸图像的局部区域再选择一组特征点,记为第二组特征点,第二组特征点优选在鼻子区域、眼睛区域或嘴巴区域处,并且,第二组特征点可以是第一组特征点的一部分,也可以是新选择出的特征点。步骤104:使用第一组特征点的三维坐标计算得到表示第一组特征点的深度信息的第一人脸特征。本步骤中的深度信息是指第一组特征点与3D摄像头的理论距离,理论距离是指在理想情况下(当人脸正对3D摄像头,人脸没有任何的偏斜时),第一组特征点与3D摄像头的距离,因为真实的人脸(活体人脸)不是平面的,而脸部照片以及视频伪造的人脸是平面的,若多个第一组特征点的理论距离不同,则可以认为3D人脸图像是活体。在理想情况下,深度信息可以使用三维坐标中z的值来表征,此时,若多个第一组特征点的z的值不同,就可以判断3D人脸图像是活体。但是,实际上在采集3D人脸图像时,人脸会存在偏斜等情况,导致三维坐标中z的值不能完全的表示深度信息,而且,如果将脸部照片倾斜或折叠,或者将视频倾斜,也会使得多个第一组特征点的z的值不同,并且,3D摄像头在采集3D人脸图像时,若人脸出现倾斜,也有可能使得多个第一组特征点的z的值相同,所以仅仅使用z的值来判断3D人脸图像是否为活体是不准确的。因此我们使用三维坐标(包括x,y,z的值)来表征深度信息,并使用多个第一组特征点的三维坐标(深度信息)来判断3D人脸图像是否为活体。优选的,可以通过多个第一组特征点的三维坐标计算得到第一人脸特征,该第一人脸特征能够表征多个第一组特征点的深度信息(即反映3D人脸图像整体的深度信息),并且该第一人脸特征具有鲁棒性和稳定性,具体的为:即使将脸部照片倾斜或折叠,或者将视频倾斜,提取到的第一人脸特征也能够使得该照片和视频被识别为非活体;并且3D摄像头在采集3D人脸图像时,若人脸出现倾斜,提取到的第一人脸特征也能够使得该3D人脸图像被识别为活体。第一人脸特征包括多个参数值,可以写成向量的形式,我们称之为第一人脸特征向量,第一人脸特征向量能够反映3D人脸图像的整体深度信息。步骤105:使用第一组特征点和第二组特征点的三维坐标计算得到表示第一组特征点和第二组特征点的深度信息的第二人脸特征。第一人脸特征能够反映3D人脸图像的整体深度信息,为了更好地表征3D人脸图像,我们还可以使用第一组特征点和第二组特征点的三维坐标计算得到第二人脸特征,第二人脸特征表示第一组特征点和第二组特征点的深度信息的,既包含3D人脸图像的整体深度信息又包含3D人脸图像的局部深度信息,并且3D人脸图像的整体深度信息和局部深度信息相互关联,使得第二人脸特征的特征更多,更能表征3D人脸图像,使得后续的判断准确率更高。步骤106:使用第一人脸特征和/或第二人脸特征判断3D人脸图像是否是活体。本步骤中,预先定义了判断标准,若第一人脸特征和/或第二人脸特征符合该标准,则认为3D人脸图像是活体,否则,3D人脸图像是非活体。并且本步骤可以单独使用第一人脸特征或第二人脸特征,也可以综合使用第一人脸特征和第二人脸特征,手段更加灵活,判断更加准确。本发明实施例能够判断人脸图像是否是活体。首先采集得到3D人脸图像,并在3D人脸图像上选择第一组特征点,到第一组特征点的三维坐标;再通过三维坐标计算得到第一人脸特征,该第一人脸特征能够表示第一组特征点的深度信息(即反映3D人脸图像整体的深度信息);然后在3D人脸图像的局部区域上选择第二组特征点,并获取第二组特征点的三维坐标,并使用第一组特征点和第二组特征点的三维坐标计算得到表示第一组特征点和第二组特征点的深度信息的第二人脸特征,该第二人脸特征能够表示第一组特征点和第二组特征点的深度信息(即反映3D人脸图像整体的深度信息和局部深度信息);最后使用第一人脸特征和第二人脸特征判断人脸图像是否是活体。本发明实施例精确度高。本发明实施例利用3D人脸图像上第一组特征点和第二组特征点的深度信息(即3D人脸图像整体的深度信息和局部深度信息)来判断人脸图像是否是活体,并且进一步提取出第一人脸特征来表征深度信息,使得识别的精确度高。并且,第一人脸特征和第二人脸特征具有鲁棒性和稳定性,能够很好的表征人脸图像整体的深度信息,使得识别结果也具有鲁棒性和稳定性。综上所述,本发明实施例的人脸活体检测的方法能够判断人脸图像是否是活体,并且识别的精确度高,识别结果具有鲁棒性和稳定性。本发明实施例中,第一人脸特征通过各种方法得到,这里给出一个实施例:确定邻域的大小。本步骤中,确定邻域的边长s,并对每一个第一组特征点,选择s*s大小的邻域。对每个第一组特征点,使用该特征点邻域内的像素点的三维坐标拟合得到第一目标平面。将第一组特征点的邻域内的像素点的三维坐标使用最小二乘法、插值法等方法进行拟合,可以得到一个平面,我们将这个平面称为第一目标平面。以第一目标平面的系数作为第一人脸特征。第一目标平面的方程为z=a1*x+b1*y+c1。以第一目标平面的系数作为人脸特征,即第一人脸特征可以为[a1,b1,c1],进一步的,可以对其进行归一化,得到第一人脸特征:[a1a12+b12+1,b1a12+b12+1,-1a12+b12+1]]]>第一目标平面是通过第一组特征点邻域内的像素点的三维坐标拟合得到的,对同一个人的同一个特征点而言,这个第一目标平面具有很好的稳定性和鲁棒性,不受人脸采集的姿势以及图像噪声的影响,因此各个第一组特征点的目标平面的系数组成的第一人脸特征向量也具有很好的稳定性和鲁棒性,更能表征3D人脸图像的整体深度信息,使得识别结果精确度更高,鲁棒性和稳定性更好。本发明实施例中,第二人脸特征通过各种方法得到,这里给出一个实施例:使用第二组特征点的三维坐标拟合得到第二目标平面。将第二组特征点的三维坐标使用最小二乘法、插值法等方法进行拟合,可以得到一个平面,我们将这个平面称为第二目标平面。计算第一组特征点到第二目标平面的距离值,得到第二人脸特征,其中,位于第二目标平面两侧的第一组特征点的距离值的符号不同。我们使用第一组特征点到第二目标平面的距离表征深度信息,第二目标平面是通过第二组特征点的三维坐标拟合得到的,对同一个人而言,这个第二目标平面具有很好的稳定性和鲁棒性,不受人脸采集的姿势以及图像噪声的影响,因此各个第一组特征点到第二目标平面的距离组成的第二人脸特征也具有很好的稳定性和鲁棒性,更能表征人脸图像的深度信息,使得识别结果精确度更高,鲁棒性和稳定性更好。而且,第二目标平面将第一组特征点分成两部分,分别在第二目标平面的两侧,若单纯的以距离值来表征深度信息,由于距离值都是正的,不能反映出距离值对应的第一组特征点是在第二目标平面的哪一侧,这就丢失了一部分信息,使得在后续使用第二人脸特征进行判断时的结果不够准确。因此,我们将位于第二目标平面两侧的第一组特征点的距离值取不同的符号。理论上,点(x1,y1,z1)到第二目标平面z=a2*x+b2*y+c2的距离值公式为:|a2*x1+b2*yi-z1+c2|a22+b22+1]]>我们将分子的绝对值号去掉,即可使得位于第二目标平面两侧的第一组特征点的距离值的符号不同,因此本实施例的距离值公式为:(a2*x1+b2*yi-z1+c2)a22+b22+1]]>第二人脸特征包括多个参数值,可以写成向量的形式,我们称之为第二人脸特征向量,第二人脸特征向量能够反映3D人脸图像的深度信息。在提取出第一人脸特征和/或第二人脸特征后,就可以使用第一人脸特征和/或第二人脸特征判断3D人脸图像是否是活体。这里给出一个判断的实施例:使用预先训练好的分类器对第一人脸特征和/或第二人脸特征进行分类;根据分类结果判断3D人脸图像是否是活体。本发明实施例采用分类器判断3D人脸图像是否是活体,事先需要使用第一人脸特征和/或第二人脸特征对分类器进行训练,即设定好判断标准,然后将第一人脸特征和/或第二人脸特征输入分类器,得到类别输出,根据类别判断人脸图像是否是活体。例如,分类器为SVM分类器,SVM分类器使用多个第一人脸特征和/或第二人脸特征样本进行训练得到。将第一人脸特征和/或第二人脸特征输入分类器,若输出结果为1,则为活体,若输出结果为-1,则为非活体。本发明实施例采用分类器判断3D人脸图像是否是活体,进一步提高了识别的精确度。上述的各个实施例中,对特征点的选取可以有多种方式,这里给出一个实施例:第一组特征点为17*17个,均匀分布在3D人脸图像上,第二组特征点为鼻子区域的3个特征点。第一组特征点的选取过程为;获取人脸外框的大小,人脸外框是一个矩形,其宽度由3D人脸图像最左右的两个点决定,高度由最上下的两个点决定。定位鼻尖位置。以鼻尖位置为中心,以人脸外框的长和宽的2/3为大小,构造矩形框。将矩形框均匀分为17*17的网格,得到289个第一组特征点。第二组特征点优选为鼻子根部的3个特征点。第一组特征点均匀分布在3D人脸图像上,使得提取到的人脸特征更加丰富,更能表征3D人脸图像,使得识别结果更准确。这里我们选取了鼻子区域的特征点为第二组特征点,是因为鼻子是人脸区域中一个突出的部位,它的深度信息是很有区分度的。并且更进一步的,这3个特征点是鼻子根部的3个点,拟合得到的第二目标平面是鼻子底部的平面,这个平面最为简单,计算方便。下面以一个优选的实施例对本发明进行阐述:步骤1)、打开3D摄像头,获取一张3D人脸图像,获取鼻子区域4个特征点的深度信息,同时有规则的标记人脸区域的289个点并获取它们的深度信息;首先,我们调用已有的算法来打开摄像头、拍摄3D人脸图像、获得人脸框的大小,并提取鼻子区域4个特征点的深度信息,见图4。图2是78个特征点的标记,这78个特征点的坐标是3D摄像头直接给出的,依次用如下符号表示:Point0,Point1,…,Point76,Point77;我们只选取鼻子区域的四个特征点Point26,Point29,Point30,Point32,它们的深度信息依次由下面的三维坐标来表示:(x26,y26,z26),(x29,y29,z29),(x30,y30,z30),(x32,y32,z32).同时,以鼻尖Point29为中心的,构造一个网格(网格的长和宽分别是检测到的人脸框长和宽的2/3),同时将网格分为等长等宽的17×17个小网格、并获取这17×17个网格点的深度信息,按列依次标记为netPoint0,netPoint1,…,netPoint287,netPoint288(见图3),它们的深度信息依次由下面的三维坐标来表示:(net_x0,net_y0,net_z0),…,(net_x288,net_y288,net_z288)这里我们获取289个点比原有的78个点更能体现人脸的凸凹起伏状况,比如鼻子的凸出信息、鼻子边缘的凸凹信息、脸颧骨处的凸凹信息、眼睛部位的凸凹信息等。步骤2)、对于步骤1)中289个点中的每一个点,获取其周围3×3邻域的点的深度信息、并由这些深度信息计算出一个三维的方向向量。将这些方向向量组合在一起构成一个289×3维的数据,来作为第一人脸特征;可以将人脸看成一个起伏不平的有特定规则的面(比如鼻子部位高凸,眼睛部位凹陷等),因为照片等是平面,或者即使人为的弯曲照片等来模拟人脸的起伏特点、其实也是可以区分的,这里我们可以应用一些脸部小区域(近似为一个小平面)的法向量,则这些法向量是很有区分度的。具体的,对于第i个网格点netPointi,获取其3×3邻域共9个点的深度信息,并依次表示为(i_x0,i_y0,i_z0),(i_x1,i_y1,i_z1),…,(i_x8,i_y8,i_z8)利用最小二乘法,由这九个点确定一个平面β1:z=a1*x+b1*y+c1.计算a,b,c的过程,设A1=i_x0i_y01i_x1i_y11.........i_x7i_y71i_x8i_y81,X1=a1b1c1,Z=i_z0i_z1...i_z7i_z8.]]>即A1*X1=Z1,于是利用Matlab做如下计算,可求出平面的三个系数即X1=A1\\Z1orX1=(A1TA1)-1A1TZ1.我们记:normal_vect_i=[a1a12+b12+1,b1a12+b12+1,-1a12+b12+1]]]>将这些法向量组合在一起构成一个289×3维的数据,作为特征来表示一张人脸,即[normal_vect_0,normal_vect_1,..,normal_vect_288]步骤3)、利用步骤1)中人脸鼻子区域的4个特征点的深度信息,以及289个点的深度信息,计算出一个表示人脸的289维第二人脸特征;首先,利用最小二乘法,由三个特征点Point26,Point30,Point32确定一个平面β2:z=a2*x+b2*y+c2.计算a2,b2,c2的过程,设A2=x26y261x30y301x32y321,X2=a2b2c2,Z2=z26z30z32]]>即A2*X2=Z2,于是利用Matlab做如下计算,可求出平面的三个系数即X2=A2\\Z2orX2=(A2TA2)-1A2TZ2.接着,计算289个网格点到此平面的一个数值,记第i个网格点到拟合平面的数值是sign_di,则sign_di=(a2*netxi+b2*netyi-netzi+c2)a22+b22+1]]>之后,把这289个数值作为一个人脸的特征,即用289维的数据[sign_d0,sign_d1,…,sign_d288]作为特征来表示一张人脸。注:这里我们不取点到直线的距离(即上式中分子不取绝对值),是因为这样的度量数据可以更能有效防止人为的弯曲照片来构造的假的深度数据。步骤4)、利用步骤1)和2)中的第一人脸特征和第二人脸特征来判断当前的人脸是不是活体。将第一人脸特征和第二人脸特征输入到我们已经训练好的SVM分类器中,根据输出的结果来判断是不是活体。如果输出的结果是1,则是活体,如果输出的结果是-1,则是非活体。在机器学习领域,SVM(支持向量机,SupportVectorMachine)是一个有监督的学习模型,通常用来进行模式识别、分类、以及回归分析。SVM经常用在二类问题上。我们采集并计算出了5万多份活体和非活体人脸的特征数据,用Matlab的SVM训练函数svmtrain来训练分类器。这些特征数据中,训练样本是28000份(其中活体6000份,非活体22000份),测试样本是24000份(其中活体4000份、非活体20000份),并且标记真人脸为+1,假人脸为-1。在训练时选取最佳的参数,在Matlab的SVM训练函数svmtrain的参数中,设定了采取高斯核函数、并设置了sigma=4。另一方面,本发明实施例提供一种人脸活体检测的装置,如图5所示,包括:采集模块11,用于采集3D人脸图像.第一选择模块12,用于在3D人脸图像的整个区域上选择第一组特征点,并获取第一组特征点的三维坐标。第二选择模块13,用于在3D人脸图像的局部区域上选择第二组特征点,并获取第二组特征点的三维坐标;局部区域为鼻子区域、眼睛区域或嘴巴区域。第一提取模块14,用于使用第一组特征点的三维坐标计算得到表示第一组特征点的深度信息的第一人脸特征.第二提取模块15,用于使用第一组特征点和第二组特征点的三维坐标计算得到表示第一组特征点和第二组特征点的深度信息的第二人脸特征.判断模块16,用于使用第一人脸特征和/或第二人脸特征判断3D人脸图像是否是活体。本发明实施例的人脸活体检测的装置能够判断人脸图像是否是活体,并且识别的精确度高,识别结果具有鲁棒性和稳定性。本发明实施例中,第一人脸特征通过各种功能单元得到,这里给出一个实施例:邻域选择单元,用于确定邻域的大小;第一拟合单元,用于对每个第一组特征点,使用该特征点邻域内的像素点的三维坐标拟合得到第一目标平面;第一人脸特征获取单元,用于以第一目标平面的系数作为第一人脸特征。第一目标平面是通过第一组特征点邻域内的像素点的三维坐标拟合得到的,对同一个人的同一个特征点而言,这个第一目标平面具有很好的稳定性和鲁棒性,不受人脸采集的姿势以及图像噪声的影响,因此各个第一组特征点的目标平面的系数组成的第一人脸特征向量也具有很好的稳定性和鲁棒性,更能表征3D人脸图像的整体深度信息,使得识别结果精确度更高,鲁棒性和稳定性更好。本发明实施例中,第二人脸特征通过各种功能单元得到,这里给出一个实施例:第二拟合单元,用于使用第二组特征点的三维坐标拟合得到第二目标平面;第二人脸特征获取单元,用于计算第一组特征点到第二目标平面的距离值,得到第二人脸特征,其中,位于第二目标平面两侧的第一组特征点的距离值的符号不同。我们使用第一组特征点到第二目标平面的距离表征深度信息,第二目标平面是通过第二组特征点的三维坐标拟合得到的,对同一个人而言,这个第二目标平面具有很好的稳定性和鲁棒性,不受人脸采集的姿势以及图像噪声的影响,因此各个第一组特征点到第二目标平面的距离组成的第二人脸特征也具有很好的稳定性和鲁棒性,更能表征人脸图像的深度信息,使得识别结果精确度更高,鲁棒性和稳定性更好。而且,第二目标平面将第一组特征点分成两部分,分别在第二目标平面的两侧,若单纯的以距离值来表征深度信息,由于距离值都是正的,不能反映出距离值对应的第一组特征点是在第二目标平面的哪一侧,这就丢失了一部分信息,使得在后续使用第二人脸特征进行判断时的结果不够准确。因此,我们将位于第二目标平面两侧的第一组特征点的距离值取不同的符号。在提取出第一人脸特征和/或第二人脸特征后,就可以使用第一人脸特征和/或第二人脸特征判断3D人脸图像是否是活体。这里给出一个判断的实施例:判断模块包括:分类单元,用于使用预先训练好的分类器对第一人脸特征和/或第二人脸特征进行分类;判断单元,用于根据分类结果判断3D人脸图像是否是活体。本发明实施例采用分类器判断3D人脸图像是否是活体,事先需要使用第一人脸特征和/或第二人脸特征对分类器进行训练,即设定好判断标准,然后将第一人脸特征和/或第二人脸特征输入分类器,得到类别输出,根据类别判断人脸图像是否是活体。例如,分类器为SVM分类器,SVM分类器使用多个第一人脸特征和/或第二人脸特征样本进行训练得到。将第一人脸特征和/或第二人脸特征输入分类器,若输出结果为1,则为活体,若输出结果为-1,则为非活体。本发明实施例采用分类器判断3D人脸图像是否是活体,进一步提高了识别的精确度。上述的各个实施例中,对特征点的选取可以有多种形式,这里给出一个实施例:第一组特征点为17*17个,均匀分布在3D人脸图像上,第二组特征点为鼻子区域的3个特征点。第一组特征点均匀分布在3D人脸图像上,使得提取到的人脸特征更加丰富,更能表征3D人脸图像,使得识别结果更准确。这里我们选取了鼻子区域的特征点为第二组特征点,是因为鼻子是人脸区域中一个突出的部位,它的深度信息是很有区分度的。并且更进一步的,这3个特征点是鼻子根部的3个点,拟合得到的第二目标平面是鼻子底部的平面,这个平面最为简单,计算方便。以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1