活体检测方法及设备、计算机程序产品的制作方法_5

文档序号:9756826阅读:来源:国知局
被控对象,所述第四对象Β2为背景对象。所述预定条件可以为:第 一对象Α1和第二对象Β1重合以及第三对象Α2和第四对象Β2重合。
[0188] 所述第一对象Α1、第二对象Β1、第三对象Α2和第四对象Β2中至少一个的状态参 量的值可以是随机确定的。例如,所述第一对象Α1、第二对象Β1、第三对象Α2和第四对象 Β2的显示位置是随机确定的。
[0189] 所述人脸动作属性包括第一动作属性和第二动作属性。根据所述第一动作属性的 值更新所述第一对象Α1的显示位置坐标,根据所述第二动作属性的值更新所述第三和第 四对象的可视状态值,例如,可视状态值为0指示不可视,即不显示所述第三和第四对象; 可视状态值为1指示可视,即显示所述第三和第四对象。
[0190] 此外,还可以根据所述第一动作属性的值更新所述第三对象的显示位置坐标。可 选地,所述人脸动作属性还包括与所述第一动作属性不同的第三动作属性,根据所述第三 动作属性的值更新所述第三对象的显示位置坐标。
[0191] 具体地,初始显示所述第一对象A1和第二对象B1但不显示所述第三对象A2和第 四对象B2,根据所述第一动作属性改变所述第一对象A1的显示位置,根据所述第二动作属 性改变所述第二对象的可视状态。可以根据所述第二动作属性值发生改变时所述第一对 象A1的显示位置确定所述第三对象A2的初始显示位置,或者可以随机地确定所述第三对 象A2的初始显示位置。在该示例中,仅在以下场景下才确定活体检测成功,即:根据所述第 一动作属性改变所述第一对象A1的显示位置,将所述第一对象A1移动到所述第二对象B1 处,然后在所述第一对象A1位于所述第二对象B处时检测到所述第二动作属性的改变,并 据此在随机位置或者根据所述第二对象B1的显示位置所确定的显示位置处显示所述第三 对象A2,并随机地显示所述第四对象B,然后根据所述第一动作属性或与第一动作属性不 同的第三动作属性改变所述第三对象A3的显示位置,直至将所述第三对象A2移动到所述 第四对象B2处。
[0192] 如前所述,所述第一动作属性可以包括第一子动作属性和第二子动作属性,所述 第一对象A1的第一状态参量可以包括第一子状态参量和第二子状态参量,所述第一对象 A1的所述第一子状态参量的值和所述第二子状态参量的值分别为所述第一对象A的水平 位置坐标和垂直位置坐标,可以根据所述第一子动作属性的值和所述第二子动作属性的值 来分别更新所述第一对象A在所述显示屏幕上的水平位置坐标和垂直位置坐标。
[0193] 此外,所述第三动作属性也可以包括第三子动作属性和第四子动作属性,所述第 二对象A2的第一状态参量可以包括第一子状态参量和第二子状态参量,所述第二对象A2 的第一子状态参量的值和第二子状态参量的值分别为所述第二对象A2的水平位置坐标和 垂直位置坐标,可以根据所述第三子动作属性的值和所述第四子动作属性的值来分别更新 所述第二对象A2在所述显示屏幕上的水平位置坐标和垂直位置坐标。
[0194] 例如,可以将所述第一子动作属性和第二子动作属性分别定义为人脸偏转程度和 人脸俯仰程度,或者可以将所述第三子动作属性和第四子动作属性分别定义为眼睛左右转 动程度和眼睛上下转动程度。
[0195] 第四实施例
[0196] 在该第四实施例中,所述虚拟对象包括第一组对象和第二组对象,在开始执行根 据本公开实施例的活体检测方法时将所述第一组对象显示在显示屏幕上,并且所述第一组 对象包括一个或多个对象,在开始执行根据本公开实施例的活体检测方法时所述第二组对 象尚未显示在显示屏幕上并且包括一个或多个对象。根据所检测的人脸动作更新所述第一 组对象中至少一个对象在显示屏幕上的显示,其中,所述第一组对象中的所述至少一个对 象为被控对象。所述第一组对象中至少一部分对象的初始显示位置和/或初始显示形态是 预先确定的或随机确定的。
[0197] 可选地,根据所述第一组对象中至少一个对象的显示情况显示所述第二组对象中 至少一个对象。替代地,可以根据所检测的人脸动作显示所述第二组对象中至少一个对象。 可选地,所述第二组对象中至少一部分对象的初始显示位置和/或初始显示形态是预先确 定的或随机确定的。
[0198] 在该实施例中,所述第一组对象中每个对象的第一状态参量为该对象的显示位 置,并且所述第二组对象中每个对象的第一和第二状态参量分别为该对象的显示位置和可 视状态。
[0199] 在本实施例中,所述第一组对象包括第一对象和第二对象,所述第二组对象包括 多个对象,所述第一对象为被控对象,所述第二对象以及所述第二组对象为背景对象,所述 背景对象为障碍对象,所述第一对象和所述障碍对象的初始显示位置和/或初始显示形态 是随机的。在所述障碍对象运动的情况下,其运动轨迹可以为直线或曲线,并且所述障碍对 象可以沿垂直方向移动、沿水平方向移动、或者沿任意方向移动。可选地,所述障碍对象的 运动轨迹和运动方向也是随机的。
[0200] 所述人脸动作属性包括第一动作属性,所述第一对象的状态参量包括所述第一对 象的第一状态参量,所述第一对象的第一状态参量为所述第一对象的显示位置,根据所述 第一动作属性的值更新所述第一对象的第一状态参量的值,并且按照更新后的所述第一对 象的第一状态参量的值在所述显示屏幕上显示所述第一对象。
[0201] 所述预定条件可以为:所述第一对象与所述障碍对象均不相遇,或者所述第一对 象的显示位置与所述第二对象的显示位置之间的距离超过预定距离,所述预定距离可以根 据所述第一对象的显示尺寸和所述第二对象的显示尺寸确定。可选地,所述预定条件可以 为:在预定时间内所述第一对象与所述障碍对象不相遇、所述第一对象与预定数量的障碍 对象不相遇、或在预定时间内所述第一对象与预定数量的障碍对象不相遇。
[0202] 第一示例
[0203] 在该第一示例中,根据所述第一组对象中至少一个对象的显示情况显示所述第二 组对象中至少一个对象。所述第二组对象中对象是非被控对象,即背景对象,所述背景对象 为障碍对象。
[0204] 在图10A中示出了第一对象A以及障碍对象D的位置示例。所述障碍对象D可以 在显示屏幕上不断移动,并且所述障碍对象D的移动方向可以是随机的。
[0205] 在所述障碍对象D移动出所述显示屏幕时,显示所述第二组对象中的障碍对象 D2,而在所述障碍对象D2移出所述显示屏幕时,显示所述第二组对象中的障碍对象D3。依 此类推,直至达到预定定时时间,或者显示了预定数量的障碍对象。
[0206] 可选地,在预定定时时间内所述第一对象A与所述障碍对象一直不相遇的情况 下,确定活体检测成功。替换地,所述第一对象A与预定数量的障碍对象不相遇的情况下, 确定活体检测成功。替换地,在预定定时时间内所述第一对象A与预定数量的障碍对象不 相遇的情况下,确定活体检测成功。
[0207] 可选地,所述第一组对象还包括第三对象,所述第二对象和第三对象构成背景对 象,所述第三对象是目标对象。所述预定条件可以为:在预定定时时间内所述第一对象与所 述障碍对象一直不相遇且所述第一对象与所述第三对象重合。
[0208] 在图10B中示出了第一组对象中的第一对象A、第二对象(障碍对象)D以及第三 对象(目标对象)B、以及第二组对象中的障碍对象D1和D2。所述障碍对象可以在显示屏幕 上不断移动,并且所述障碍对象D的移动方向可以是随机的,在所述第一对象A与所述障碍 对象均不相遇且所述第一对象A与所述目标对象B重合的情况下,确定活体检测成功。优 选地,在预定定时时间内所述第一对象A与所述障碍对象均不相遇且所述第一对象A的显 示位置与所述目标对象B的显示位置重合的情况下,确定活体检测成功。
[0209] 例如,在所述预定条件为所述第一对象A与预定数量的障碍对象不相遇的情况 下,在步骤S550可以判断所述第一对象A与当前显示的障碍对象是否相遇、当前显示的障 碍对象是否移出显示屏幕以及已经显示的障碍对象的数量是否达到预定数量。在步骤S550 确定所述第一对象A与当前显示的障碍对象不相遇、当前显示的障碍对象移出显示屏幕以 及已经显示的障碍对象的数量未达到预定数量的情况下,在显示屏幕上显示新的障碍对 象,并且返回步骤S520 ;而在步骤S550确定所述第一对象A与当前显示的障碍对象不相遇 以及当前显示的障碍对象仍在显示屏幕显示的情况下,返回步骤S520。在步骤S550确定 所述第一对象A与当前显示的障碍对象相遇的情况下,在步骤S570确定没有检测到活体人 脸。在步骤S550确定所述第一对象A与当前显示的障碍对象不相遇、当前显示的障碍对象 移出显示屏幕以及已经显示的障碍对象的数量达到预定数量的情况下,在步骤S560确定 检测到活体人脸。
[0210] 第二示例
[0211] 在该第二示例中,根据所述第一组对象中至少一个对象的显示情况显示所述第二 组对象中至少一个对象。可选地,还根据所述第二组对象中至少一个对象的显示情况显示 所述第二组对象中其它至少一个对象。所述第二组对象中对象是非被控对象,即背景对象, 所述背景对象为障碍对象。
[0212] 具体地,所述第一组对象包括第一对象和第二对象,根据所检测的人脸动作更新 所述第一对象和第二对象在显示屏幕上的显示。具体地,所述第一对象的垂直显示位置固 定,根据所检测的人脸动作更新所述第一对象的水平显示位置以及所述第二对象的水平和 垂直显示位置。
[0213] 可选地,还根据所述第二对象的显示情况来显示所述第二组对象中的障碍对象, 并且还可以根据第二组对象中障碍对象的显示情况来显示所述第二组对象中新的障碍对 象。具体地,根据所检测的人脸动作更新所述第一对象的水平显示位置以及所述第二组对 象中障碍对象的水平和垂直显示位置。
[0214] 所述人脸动作属性可以包括第一动作属性和第二动作属性,所述第一对象的状态 参量包括所述第一对象的第一和第二状态参量,所述第一对象的第一和第二状态参量分别 为所述第一对象的行进参量和水平位置,所述行进参量可以为运动速度、行进距离等。例 如,在所述行进参量为运动速度的情况下,首先,根据所述第一动作属性的值更新第一对象 的运动速度的值,并且根据所述第二动作属性的值更新第一对象的水平位置坐标。其次,根 据所述第一对象A的运动速度的值、所述第一对象A与所述障碍对象D之间的距离(可以 包括水平距离和垂直距离)、以及所述第一对象A的水平位置坐标,确定所述障碍对象D和 所述第一对象A的显示位置。例如,在所述第一对象的目标前进方向为道路延伸方向(如 图10C中道路变窄的方向)、以及所述第一对象A的垂直显示位置保持不变的情况下,可以 根据所述第一对象A的运动速度的值以及所述第一对象A与所述障碍对象D之间的垂直距 离,确定是否继续显示所述障碍对象D、以及所述障碍对象D的显示位置,并且可以根据所 述第一对象A的水平位置坐标确定所述第一对象A的显示位置。
[0215] 具体地,例如,所述第一对象A可以为汽车,所述障碍对象D可以是在汽车前进的 道路上随机产生的石头,所述第一动作属性可以为人脸俯仰程度,所述第二动作属性可以 为人脸偏转程度,所述第一对象A的第一状态参量和第二状态参量可以分别为所述第一对 象的运动速度和水平位置。例如,可以将人脸平视状态对应于运动速度V0,将人脸30度或 45度仰视状态对应于最高运动速度VH,将人脸30度或45度俯视状态对应于最低运动速 度VL,根据人脸俯仰程度的值(例如,人脸俯仰角度)确定第一对象的运动速度。例如,可 以将人脸正视状态对应于中间位置P0,将人脸30度或45度左偏状态对应于左侧边缘位置 PL,将人脸30度或45度右偏状态对应于右侧边缘位置PR,根据人脸偏转程度的值(例如, 人脸偏转角度)确定第一对象的水平位置坐标。
[0216] 此外,所述第一对象的状态参量还包括所述第一对象的第三状态参量,所述第三 状态参量可以为所述第一对象的行进距离。可选地,在所述第一对象与障碍对象不相遇并 且所述第一对象在预定时间内的行进距离达到预设距离值的情况下,确定活体检测成功。
[0217] 上面已经在第一到第四实施例中描述了根据本公开实施例的活体检测方法的具 体实现方式,应了解,可以根据需要组合第一到第四实施例中的各种具体操作。
[0218] 接下来,将参考图11和图12来描述根据本公开实施例的活体检测设备。所述活 体检测设备可以是集成了人脸图像采集装置的电子设备,诸如智能手机、平板电脑、个人计 算机、基于人脸识别的身份识别设备等。替代地,所述活体检测设备还可以包括分离的人脸 图像采集装置和检测处理装置,所述检测处理装置可以从所述人脸图像采集装置接收拍摄 图像,并且依据所接收的拍摄图像进行活体检测。所述检测处理装置可以为服务器、智能手 机、平板电脑、个人计算机、基于人脸识别的身份识别设备等。
[0219] 由于该活体检测设备执行各个操作的细节与上文中针对图2 - 4描述的活体检测 方法的细苄基本相同,因此为了避免重复,在下文中仅对所述活体检测设备进行简要的描 述,而省略对相同细节的描述。
[0220] 如图11所示,根据本公开实施例的活体检测设备1100包括人脸动作检测装置 1110、虚拟对象控制装置1120、以及活体判断装置1130。人脸动作检测装置1110、虚拟对象 控制装置1120、以及活体判断装置1130可以由图1所示的处理器102实现。
[0221] 如图12所示,根据本公开实施例的活体检测设备1200包括图像采集装置1240、人 脸动作检测装置1110、虚拟对象控制装置1120、活体判断装置1130、显示装置1250以及存 储装置1260。图像采集装置1240可以由图1所示的图像采集装置110实现,人脸动作检测 装置1110、虚拟对象控制装置1120、以及活体判断装置1130可以由图1所示的处理器102 实现,显示装置1250可以由图1所示的输出装置108实现,存储装置1260可以由图1所示 的存储装置104实现。
[0222] 可以利用活体检测设备1200中的图像采集装置1240或者独立于所述活体检测设 备1100或1200的可以向所述活体检测设备1100或1200传送图像的其它图像采集装置, 采集预定拍摄范围的灰度或彩色图像作为拍摄图像,所述拍摄图像可以是照片,也可以是 视频中的一帧。所述图像采集设备可以是智能电话的摄像头、平板电脑的摄像头、个人计算 机的摄像头、或者甚至可以是网络摄像头。
[0223] 人脸动作检测装置1110被配置为从拍摄图像中检测人脸动作。
[0224] 如图13所示,人脸动作检测装置1110可以包括关键点定位装置1310、纹理信息提 取装置1320、以及动作属性确定装置1330。
[0225] 所述关键点定位装置1310被配置为在所述拍摄图像中定位人脸关键点。作为示 例,所述关键点定位装置1310可以首先确定所获取的图像中是否包含人脸,在检测到人脸 的情况下定位出人脸关键点。所述关键点定位装置1310操作的细节与步骤S310中描述的 细节相同,在此不再赘述。
[0226] 所述纹理信息提取装置1320被配置为从所述拍摄图像中提取图像纹理信息。作 为示例,所述纹理信息提取装置1320可以根据所述拍摄图像中的像素信息,例如像素点的 亮度信息,提取人脸的精细信息,例如眼球位置信息、口型信息、微表情信息等等。
[0227] 所述动作属性确定装置1330基于所定位的人脸关键点以及/或者所述图像纹理 信息,获得人脸动作属性的值。基于所定位的人脸关键点获得的所述人脸动作属性可以例 如包括但不限于眼睛睁闭程度、嘴巴张闭程度、人脸俯仰程度、人脸偏转程度、人脸与摄像 头的距离等。基于所述图像纹理信息获得的所述人脸动作属性可以包括但不限于眼球左右 偏转程度、眼球上下偏转程度等等。所述动作属性确定装置1330操作的细节与步骤S330 中描述的细节相同,在此不再赘述。
[0228] 所述虚拟对象控制装置1120被配置为根据所检测的人脸动作控制在所述显示装 置1250上显示虚拟对象。
[0
当前第5页1 2 3 4 5 6 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1