一种基于Kinect传感器的身份综合识别方法

文档序号:9687927阅读:874来源:国知局
一种基于Kinect传感器的身份综合识别方法
【技术领域】
[0001] 本发明设及一种身份识别方法,尤其是是一种基于Kinect传感器并融合身高信 息、肤色/发色信息W及人脸图像信息的身份综合识别方法。
【背景技术】
[0002] 近年来,随着计算机、互联网、人工智能等技术的突破性发展,机器人正逐步走入 人们的目常生活领域,提供着各种类型的服务。在服务型机器人的应用中,让机器人与人进 行各种信息的交流是实现良好服务的前提,而让机器人快速、正确识别人的身份,如主人、 客户、陌生人等,从而实现区分对待,是机器人与人进行交流的基础保障。
[0003] 在人工智领域,身份验证可W通过多种技术实现,如输入密码、刷ID卡、指纹认证、 虹膜识别等。运些技术虽然应用广泛,而且唯一性、保密性较好,但是对于服务于人的服务 型机器人而言,其并不适用。原因很简单,就是人们更希望像人一样可W与机器人进行自然 交流,而不是W通过输入密码、刷卡等繁琐方式获取操控权。由此可见上述身份认证方式只 作为机器人管理员或者维护人员获取控制权的手段较为合适。
[0004] 目前在机器人领域应用较多的身份认证手段主要是基于图像的人脸识别,其具备 简单、自然、非接触的优点。但是人脸识别存在着固有缺陷,一方面,识别过程需要被识别人 的配合,W提供正面人脸,而且在光线不好情况下识别效果较差,准确率较低;另一方面,机 器人很容易被入侵者采用照片欺骗。尤其在一些家居场景应用下,机器人的服务对象主要 为家庭成员,只通过人脸识别手段来识别家庭成员,就避免不了需要频繁要求主人提供正 脸配合,使用非常不方便,灵活性较差,体验舒适度较低。

【发明内容】

[0005] 本发明的目的是提供一种基于Kinect传感器的身份综合识别方法,其具有实现容 易、识别速度快、准确率高的优点,采用本发明的服务机器人在在家庭应用场景下,不需要 频繁地要求主人配合,就能实现大部分情况下的身份检测识别,实用性较强。
[0006] 为解决现有技术中常用的身份验证方式不适合服务型机器人采用,而单一基于图 像的人脸识别技术需要主人频繁配合,在光线不好的情况下识别效果较差,且容易被入侵 者采用照片欺骗的技术问题,本发明提供的一种基于Kinect传感器的身份综合识别方法, 包括注册过程和识别过程,并具体包括W下步骤:
[0007] 一、让注册人员在Kinect传感器前多角度转动人脸,并在不同位置做不同的肢体 动作,W获取该注册人员的多组人体特征,每组人体特征均包括人脸图像信息、肤色/发色 信息和人体身高信息;
[000引二、基于该注册人员的多组人脸图像信息,提取化ar-Like特征并通过SVM算法单 独训练人脸识别分类器,W获取该注册人员的人脸识别分类器结果;
[0009] Ξ、基于该注册人员的多组肤色/发色信息,通过累计获取该注册人员的肤色/发 色混合高斯模型;
[0010] 四、基于该注册人员的多组人体身高信息,通过计算获取该注册人员的身高平均 值和标准差;
[0011] 五、将步骤二、步骤Ξ和步骤四得到的结果存入数据库W完成该注册人员的信息 注册,并依照该注册人员的注册方式完成所有注册人员的信息注册;
[0012] 六、注册完成后,利用Kinect传感器捕获当前人员的人体特征,将当前人员的人体 特征与数据库中注册人员的注册信息作比较,并依据比较结果确定当前人员的身份。
[0013] 进一步的,本发明一种基于Kinect传感器的身份综合识别方法,其中,在步骤一 中,所述获取注册人员的人脸图像信息按W下具体方式实现:
[0014] (一)利用Kinect传感器采集包含注册人员的深度图像和彩色图像,并根据深度图 像中的深度点云提取注册人员的人体骨架关节点信息,其中,
[0015] 躯干部分包括头顶、下飄、胸部、腹部、髓部,依次用C1、C2、C3、C4、巧表示;
[0016] 左手部分包括左手指尖、左手腕、左肘关节、左肩关节,依次用1^、1^2、1^3、1^4表示;
[0017] 右手部分包括右手指尖、右手腕、右肘关节、右肩关节,依次用R1、R2、R3、R4表示; [001引左腿部分包括左脚尖、左脚腕、左膝关节、左髓关节,依次用E1、E2、E3、E4表示;
[0019] 右腿部分包括右脚尖、右脚腕、右膝关节、右髓关节,依次用FI、F2、F3、F4表示;
[0020] (二)W注册人员的人体骨架中Cl和C2两个关节点的连线为中轴,采用人体分割方 法提取彩色图像中的人体头部区域,作为人体头部图像;
[0021] (Ξ)采用人脸识别算法判断人体头部图像是否包括人脸,如果包括人脸则抓取人 脸图像,作为注册人员的人脸图像信息,否则认为不包括人脸。
[0022] 进一步的,本发明一种基于Kinect传感器的身份综合识别方法,其中,在步骤一 中,所述获取注册人员的肤色/发色信息按W下具体方式实现:
[0023] ( - )将注册人员的人体头部图像从RGB色域转换为YCbCr色域,并针对人体头部图 像中的每个像素点判断其化Cr彩色分量是否属于基本肤色分布U(化,吐),如果属于则标记 为1,如果不属于则标记为0;
[0024] (二)根据步骤(一)的判断和标记结果,将所有标记为1的像素点作为一个集合,并 计算化化彩色分量的均值和CbCr对应的协方差矩阵,作为肤色单高斯模型,其中,Cb化彩色 分量均值用μι = ^巧7 表示,协方差矩阵用表示,肤色单高斯模型用化(山,〇12)表 示;
[0025] (Ξ)根据步骤(一)的判断和标记结果,将所有标记为0的像素点作为一个集合,并 计算化化彩色分量的均值和CbCr对应的协方差矩阵,作为发色单高斯模型,其中,Cb化彩色 分量均值用μζ = 巧ST表示,协方差矩阵方差用〇22表示,发色单高斯模型用化(μ2, 〇22)表巧。
[00%]进一步的,本发明一种基于Kinect传感器的身份综合识别方法,其中,在步骤Ξ 中,所述肤色/发色混合高斯模型为N= (μι,山2,化2)。
[0027] 进一步的,本发明一种基于Kinect传感器的身份综合识别方法,其中,在步骤一 中,所述获取注册人员的人体身高信息按W下具体方式实现:
[002引(一)将人体骨架中的关节点分为五组,第1组为((:1,〔2,〔3,〔4,〔5),第2组为化1, 1^2,1^3,1^4),第3组为(1?1,1?2,1?,1?4),第4组为化1店2^3店4),第5组为巧1少2^3,尸4);
[0029] (二)对各组关节点集合分别采用最小二乘法拟合Ξ维空间直线,并计算各自的直 线拟合误差,分别记为Δ 1、Δ 2、Δ 3、Δ 4、Δ 5;
[0030] (S)当所有误差Δ 1、Δ 2、Δ 3、Δ 4、A 5均小于设定阔值Τ时,则认为人体处于各关 节的伸直状态,并按如下方法计算表示的人体身高;
[0031]
[0036] α = ( Δ 4+ Δ 5)/( Δ 1+ Δ 2+ Δ 3+ Δ 4+ Δ 5) (6)
[0037] Η=α(出+max(也,也))+2(l-a)max(Ai+A2) (7)
[0038] 在上述公式(1)至(5)中,。G隶示两关节点Cl和C2之间的Ξ维空间距离;而。表 示两关节点C2和C3之间的Ξ维空间距离;而哥i表示两关节点C3和C4之间的Ξ维空间距离; 表示两关节点C4和巧之间的Ξ维空间距离;E7民表示两关节点E1和E2之间的Ξ维空 间距离;表示两关节点E2和E3之间的立维空间距离;雨表示两关节点E3和E4之间 的Ξ维空间距离;表示两关节点F1和F2之间的Ξ维空间距离;表示两关节点F2和 F3之间的Ξ维空间距离;巧巧隶示两关节点F3和F4之间的Ξ维空间距离;?:^:表示两关节 点L1和L2之间的Ξ维空间距离;1?表示两关节点L2和L3之间的Ξ维空间距离;^表示 两关节点L3和L4之间的Ξ维空间距离;表示两关节点L4和C3之间的Ξ维空间距离; 馬Ι?表示两关节点R1和R2之间的Ξ维空间距离;馬馬:表示两关节点R2和R3之间的Ξ维空 间距离;馬馬表示两关节点R3和R4之间的Ξ维空间距离;表示两关节点R4和C3之间 的Ξ维空间距离。
[0039] 进一步的,本发明一种基于Kinect传感器的身份综合识别方法,其中,在步骤六 中,所述利用Kinect传感器捕获当前人员的人体特征,将该人体特征与数据库中注册人员 的注册信息作比较W确定当前人员的身份,具体包括W下步骤:
[0040] ( - )利用Kinect传感器获取当前人员的人体身高信息和肤色/发色信息;
[0041] (二)根据当前人员的人体身高信息通过计算并获得当前人员的身高,查询数据库 中注册人员的注册信息并遍历每一个注册人员对应的比-3 Δ h,h+3 Δ h]范围,判断是否存 在与当前人员身高相匹配的注册人员,如果存在且具有唯一性则直接将当前人员识别为对 应的注册人员,结束识别并输出结果;如果存在但不具有唯一性则进行W下第Ξ步;如果不 存在匹配的注册人员则进行W下第四步;其中h表示注册人员的身高平均值,Ah表示标准 差;
[0042] (Ξ)根据当前人员的肤色/发色信息,获取当前人员的肤色/发色混合高斯模型, 在步骤(二)的基础上依据存在与当前人员身高相匹配的注册人员但不唯一的条件,确定
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1