一种人脸识别方法、装置、机器可读介质及设备与流程

文档序号:18942517发布日期:2019-10-23 01:16阅读:256来源:国知局
一种人脸识别方法、装置、机器可读介质及设备与流程

本发明涉及人脸识别技术领域,特别是涉及一种人脸识别方法、装置、机器可读介质及设备。



背景技术:

人脸识别技术已经广泛用在视频监控、银行开户、门禁等行业中。在传统技术中,当摄像头采集到视频流后,是通过逐帧分析静态图像中是否有人脸,以及人脸是否和已有人脸数据库匹配。但这类传统方法具体存在如下局限性:

1.损失了人脸的时间维度信息

能代表一个人的人脸特征,不仅包括他的五官排布、脸型等显性特征,而且还包括例如微笑时眉头舒展、无奈时撇嘴等微表情动态特征。然而,传统的人脸识别一般属于静态识别,即只是对单帧图像进行分析,缺少了对人脸表情变化过程的分析。

2.对人脸表情敏感

不同的表情会带来脸部特征产生较大的变化,因而当人脸数据库中的人脸表情与摄像头正采集到的人脸表情不一致时,系统很可能会错误判定同一个人的两张照片为不相似。



技术实现要素:

鉴于以上所述现有技术的缺点,本发明的目的在于提供一种人脸识别方法、装置、机器可读介质及设备,用于解决现有技术中静态识别准确度不够高的问题。

为实现上述目的及其他相关目的,本发明提供一种人脸识别方法,该人脸识别方法包括:

从视频流中提取出每帧图像并确定待识别人脸图像;

从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量;其中单帧待识别人脸图像包含于多帧待识别人脸图像内;

将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比对;

根据比对结果进行人脸识别。

可选地,该人脸检测方法还包括:

从单帧待识别人脸图像中提取出静态人脸表情特征向量;

确定所述静态人脸表情特征向量所属类别;

根据静态人脸表情特征向量所属类别从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量;其中单帧待识别人脸图像包含于多帧待识别人脸图像内;

可选地,从视频流中提取出每帧图像并对每帧图像进行预处理,确定待识别人脸图像,其中,所述预处理包括人脸检测和人脸对齐。

可选地,所述人脸检测包括:

使用人脸检测算法判断图片中是否有人脸;若存在人脸,则计算该人脸的位置和角度。

可选地,所述人脸的位置由人脸的外接矩形的四个角点的坐标点表示。

可选地,人脸的角度包括人脸的俯仰角、横滚角和偏航角。

可选地,所述人脸的角度通过以下方法获得:

检测出人脸关键点;

根据所述关键点计算出当前图片中人脸的角度。

可选地,所述人脸关键点包括眼睛、鼻子、嘴巴。

可选地,人脸对齐算法包括procrustes分析算法。

可选地,静态人脸表情特征向量的提取方法包括lbp、lpq。

可选地,确定静态人脸表情特征向量的类别的方法包括svm、决策树。

可选地,第一动态人脸表情特征向量的提取方法包括vlbp、lbp-top。

可选地,所述比对结果用提取的第一动态人脸表情特征向量与预存的第二动态人脸表情特征向量间的相似度表示。

可选地,相似度计算方法包括欧氏距离或余弦距离。

为实现上述目的及其他相关目的,本发明还提供一种人脸识别装置,该人脸识别装置包括:

视频解析模块,用于从视频流中提取出每帧图像并确定待识别人脸图像;

动态表情提取模块,用于从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量;

比对模块,用于将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比对;

人脸识别模块,用于根据比对结果进行人脸识别

可选地,该人脸检测装置还包括:

静态表情提取模块,用于从单帧待识别人脸图像中提取出静态人脸表情特征向量;

分类模块,用于确定所述静态人脸表情特征向量所属类别;

动态表情提取模块,用于根据静态人脸表情特征向量所属类别从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量;其中单帧待识别人脸图像包含于多帧待识别人脸图像内;

可选地,所述视频解析模块,还用于从视频流中提取出每帧图像,对每帧图像进行预处理,以确定待识别人脸图像,其中,所述预处理包括人脸检测和人脸对齐。

可选地,人脸检测包括:

使用人脸检测算法判断图片中是否有人脸;若存在人脸,则计算该人脸的位置和角度。

可选地,所述人脸的位置由人脸的外接矩形的四个角点坐标点表示。

可选地,所述人脸的角度包括人脸的俯仰角、横滚角和偏航角。

可选地,所述人脸的角度通过以下方法获得:

检测出人脸关键点;

根据所述关键点计算出当前图片中人脸的角度。

可选地,所述人脸关键点包括眼睛、鼻子、嘴巴。

可选地,人脸对齐算法包括procrustes分析。

可选地,静态人脸表情特征向量的提取方法包括lbp、lpq。

可选地,确定静态人脸表情特征向量的类别的方法包括svm、决策树。

可选地,第一动态人脸表情特征向量的提取方法包括vlbp、lbp-top。

可选地,所述比对结果用提取的第一动态人脸表情特征向量与预存的第二动态人脸特征向量间的相似度表示。

可选地,相似度计算方法包括欧氏距离或余弦距离。

为实现上述目的及其他相关目的,本发明还提供一种设备,包括:

一个或多个处理器;和

其上存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行时,使得所述设备执行前述的一个或多个所述的方法。

为实现上述目的及其他相关目的,本发明还提供一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得设备执行前述的一个或多个所述的方法。

如上所述,本发明提供的一种人脸识别方法、装置、机器可读介质及设备,具有以下有益效果:

本发明的通过提取人脸表情的动态特征进行人脸识别,相比于静态特征的人脸识别具有更高的识别率。

本发明的一种基于动态表情分析的人脸识别方法以及装置,首先通过表情识别算法,将人脸表情分类,然后结合人脸的时空信息,在预存搜索查找与待测人脸表情一致的时空描述特征向量,从而识别出人脸。

由于发明在进行人脸搜索时是将表情一致的人脸进行比对,因而解决了传统人脸识别方法中对人脸表情敏感的问题。本发明还通过结合人脸的时间和空间维度信息,能识别例如微笑时眉头舒展等微表情的动态特征,是比传统人脸识别方法更加准确的方法。

附图说明

图1为一实施例提供的人脸识别方法的流程图;

图2为人脸相对于相机坐标系的角度定义;

图3为另一实施例提供的人脸识别方法的流程图;

图4为一实施例提供的人脸识别装置的框图;

图5为另一实施例的人脸识别装置的框图;

图6为一实施例提供的终端设备的硬件结构示意图;

图7为另一实施例提供的终端设备的硬件结构示意图。

元件标号说明

11第一视频解析模块

12第一预处理模块

13第一动态表情提取模块

14第一比对模块

15第一人脸识别模块

21第二视频解析模

22第二预处理模块

23静态表情提取模块

24分类模块

25第二动态表情提取模块

26第二比对模块

27第二人脸识别模块

1100输入设备

1101第一处理器

1102输出设备

1103第一存储器

1104通信总线

1200处理组件

1201第二处理器

1202第二存储器

1203通信组件

1204电源组件

1205多媒体组件

1206语音组件

1207输入/输出接口

1208传感器组件

具体实施方式

以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。

需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。

请参阅图1,本发明提供一种人脸识别方法,该方法包括:

s11从视频流中提取出每帧图像并确定待识别人脸图像;

s12从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量;

s13将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比对;

s14根据比对结果进行人脸识别。

以下对步骤s11至步骤s14进行详细的说明

在步骤s11.从视频流中提取出每帧图像并确定待识别人脸图像。

在一实施例中,视频流可以来源于摄像头、网络视频、视频文件等。从视频流中提取出每帧图像,提取出的每帧图像可以形成一个图片的时间序列{f1,f2…,fn}。

其中,通过对从视频流中提取出的每帧图像进行预处理,确定待识别人脸图像,

预处理的方法包括人脸检测、人脸对齐。

在一实施例中,人脸检测可以包括:使用人脸检测算法判断图片中是否存在有人脸,若存在人脸,则计算该人脸的位置和角度。

具体地,人脸检测算法可以包括aam(activeappearancemodel)算法、神经网络算法。人脸的位置由人脸外接矩形的四个角点的坐标点表示;人脸的角度包括人脸的俯仰角、横滚角、偏航角。

更加具体地,人脸的角度通过以下方法获得:

检测出人脸关键点;其中,人脸关键点包括眼睛、鼻子、嘴巴等。

根据关键点计算出当前图片中人脸的角度;具体地,根据这些关键点的实际坐标以及空间坐标变化矩阵计算出当前图片中人脸的俯仰角(pitch)、横滚角(roll)、偏航角(yaw)。其中,人脸的俯仰角、横滚角、偏航角都是相对于如图3所示的相机坐标系定义。

在一实施例中,人脸对齐,即根据人脸的位置和角度,利用人脸对齐算法,将人脸的角度统一纠正,经过对齐后的人脸角度变为:pitch=roll=yaw=0。

具体地,人脸对齐算法包括但不限于procrustesanalysis普氏分析法。

在步骤s12中,从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量。

在一实施例中,动态人脸表情反应的是表情在多幅图像之间的运动过程,因此,在进行动态表情特征提取的时候,提取的是连续多帧的人脸图像的表情特征。

具体地,动态表情特征提取算法包括但不限于vlbp(volumelocalbinarypatterns)、lbp-top(localbinarypatternfromthreeorthogonalplanes)。

在步骤s13中,将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比对。

在一实施例中,比对的结果可以采用提取的第一动态人脸表情特征向量与预存的第二动态人脸表情特征向量间的相似度表示。预存的第二动态人脸表情特征向量可以采用表情特征提取算法进行提取,并按前述的表情别类存入到数据库中。

具体地,相似度可以采用欧氏距离、余弦距离来表示。

在步骤s14中,根据比对结果进行人脸识别。

根据比对结果进行人脸识别,即是根据相似的大小来进行人脸识别。具体方法可以是将相似度超过预设的相度阈值判断为同一张人脸,即可以完成人脸识别。其中,阈值可以是0.8。

在本申请中,采用提取连续的多帧待识别人脸图像的动态人脸表情的第一动态人脸表情特征向量,然后将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比对;根据比对结果完成人脸识别。由于采用了多帧图像,因此,相对于传统的单帧识别的方法来说,具有更高的识别率。

如图3所示,本发明还提供一种人脸识别方法,包括以下步骤:

s21从视频流中提取出每帧图像并确定待识别人脸图像;

s22从单帧待识别人脸图像中提取出静态人脸表情特征向量;

s23确定所述静态人脸表情特征向量所属类别;

s24根据静态人脸表情特征向量所属类别从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量。

s25将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比;

s26根据比对结果进行人脸识别。

在本实施例中,步骤s21、s25、s26的实现方式与前述步骤相同或相对应,此处不再重复。以下对步骤s22~s24进行详细说明。

在步骤s22中,从单帧待识别人脸图像中提取出静态人脸表情特征向量;

在本步骤中,从对齐后的待识别人脸图像中提取出静态人脸表情特征向量。

在一实施例中,表情特征提取算法可以是lbp(localbinarypatterns,局部二值模式)或lpq(localphasequantization)。

在步骤s23中,确定所述静态人脸表情特征向量所属类别;

本发明将人脸表情分类,然后结合人脸的时空信息,在预存搜索查找与待测人脸表情一致的时空描述特征向量,从而识别出人脸。因此,首先必须对人脸静态人脸表情特征进行分类,再判断待检测人脸表情属于哪一类。

在一实施例中,对静态人脸表情特征进行分类,分类算法包括但不限于svm、决策树、k-means算法。其中,支持向量机(supportvectormachine,svm)是一类按监督学习(supervisedlearning)方式对数据进行二元分类(binaryclassification)的广义线性分类器(generalizedlinearclassifier)。k-means算法(k-meansclusteringalgorithm,k均值聚类算法)是一种迭代求解的聚类分析算法,其步骤是随机选取k个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类。每分配一个样本,聚类的聚类中心会根据聚类中现有的对象被重新计算。这个过程将不断重复直到满足某个终止条件。

具体地,基于svm分类算法的其中一种实现是:

1.提前准备训练用的表情样本数据,例如casmeii等公开数据集,或自行采集的表情图片。提前准备表情分类类型,例如casmeii中将表情分为5种:happiness、others、disgust、repression、surprise;

2.利用训练数据来训练svm模型,得到表情的svm模型的决策面,将svm模型存储到模型库中;

在进行人脸表情特征分类时,只需要将待测静态人脸表情特征向量带入svm模型,即可确定出待测表情的表情分类。

在步骤s24中,根据静态人脸表情特征向量所属类别从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量。

在一实施例中,在前述步骤中,提取了第fi帧的人脸图像的静态人脸表情特征,并确定了该静态人脸表情特征所属的类别。因此,在提取动态人脸表情特征时,提取的是以fi为基准,前后各取rt帧,rt为时间轴半径的连续的多帧图像。

最后,将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比对,根据比对结果进行人脸识别。预存的第二动态人脸表情特征向量可以采用表情特征提取算法进行提取,并按前述的表情别类存入到数据库中。

在一实施例中,比对的结果可以采用提取的第一动态人脸表情特征向量与预存的第二动态人脸表情特征向量间的相似度表示。

具体地,相似度可以采用欧氏距离、余弦距离来表示。根据比对结果进行人脸识别,即是根据相似的大小来进行人脸识别。具体方法可以是将相似度超过预设的相度阈值判断为同一张人脸,即可以完成人脸识别。其中,阈值可以是0.8。

本发明通过结合人脸的时间和空间维度信息,能识别例如微笑时眉头舒展等微表情的动态特征,是比传统人脸识别方法更加准确的方法。

如图4所示,本发明还提供了一种人脸识别装置,该人脸识别装置包括:第一视频解析模块11、第一动态表情提取模块12、第一比对模块13、第一人脸识别模块14。

第一视频解析模块11,用于从视频流中提取出每帧图像并确定待识别人脸图像;

在一实施例中,视频流可以来源于摄像头、网络视频、视频文件等。从视频流中提取出每帧图像,提取出的每帧图像可以形成一个图片的时间序列{f1,f2…,fn}。

其中,第一视频解析模块通过对从视频流中提取出的每帧图像进行预处理,确定待识别人脸图像,

预处理的方法包括人脸检测、人脸对齐。

在一实施例中,人脸检测可以包括使用人脸检测算法判断图片中是否存在有人脸,若存在人脸,则计算该人脸的位置和角度。

具体地,人脸检测算法可以包括aam(activeappearancemodel)算法、神经网络算法。人脸的位置由人脸外接矩形的四个角点的坐标点表示;人脸的角度包括人脸的俯仰角、横滚角、偏航角。

更加具体地,人脸的角度通过以下方法获得:

检测出人脸关键点;其中,人脸关键点包括眼睛、鼻子、嘴巴等。

根据关键点计算出当前图片中人脸的角度;具体地,根据这些关键点的实际坐标以及空间坐标变化矩阵计算出当前图片中人脸的俯仰角(pitch)、横滚角(roll)、偏航角(yaw)。其中,人脸的俯仰角、横滚角、偏航角都是相对于如图2所示的相机坐标系定义。

在一实施例中,人脸对齐,即根据人脸的位置和角度,利用人脸对齐算法,将人脸的角度统一纠正,经过对齐后的人脸角度变为:pitch=roll=yaw=0。

具体地,人脸对齐算法包括但不限于procrustesanalysis普氏分析法。

第一动态表情提取模块12,用于从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量;

在一实施例中,动态人脸表情反应的是表情在多幅图像之间的运动过程,因此,在进行动态表情特征提取的时候,提取的是连续多帧的人脸图像的表情特征。

具体地,动态表情特征提取算法包括但不限于vlbp(volumelocalbinarypatterns)、lbp-top(localbinarypatternfromthreeorthogonalplanes)。

第一比对模块13,用于将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比对;

在一实施例中,比对的结果可以采用提取的第一动态人脸表情特征向量与预存的第二动态人脸表情特征向量间的相似度表示。预存的第二动态人脸表情特征向量可以采用表情特征提取算法进行提取,并按前述的表情别类存入到数据库中。

具体地,相似度可以采用欧氏距离、余弦距离来表示。

第一人脸识别模块14,用于根据比对结果进行人脸识别。

根据比对结果进行人脸识别,即是根据相似的大小来进行人脸识别。具体方法可以是将相似度超过预设的相度阈值判断为同一张人脸,即可以完成人脸识别。其中,阈值可以是0.8。

如图5所示,本发明还提供一种人脸识别装置,包括第二视频解析模块21、静态表情提取模块22、分类模块23、第二动态表情提取模块24、第二比对模块25、第二人脸识别模块26。

第二视频解析模块21,用于从视频流中提取出每帧图像并确定待识别人脸图像;

静态表情提取模块22,用于单帧待识别人脸图像中提取出静态人脸表情特征向量;

分类模块23,用于确定所述静态人脸表情特征向量所属类别;

第二动态表情提取模块24,用于静态人脸表情特征向量所属类别从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量。

第二比对模块25,用于将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比;

第二人脸识别模块26,用于根据比对结果进行人脸识别。

在本实施例中,第二视频解析模块21、第二比对模块26、第二人脸识别模块27的实现方式与前述步骤相同或相对应,此处不再重复。

静态表情提取模块22,用于从单帧待识别人脸图像中提取出静态人脸表情特征向量;

静态表情提取模块是从对齐后的待识别人脸图像中提取出静态人脸表情特征向量。

在一实施例中,表情特征提取算法可以是lbp(localbinarypatterns,局部二值模式)或lpq(localphasequantization)。

分类模块23,用于确定所述静态人脸表情特征向量所属类别;

本发明将人脸表情分类,然后结合人脸的时空信息,在预存搜索查找与待测人脸表情一致的时空描述特征向量,从而识别出人脸。因此,首先必须对人脸静态人脸表情特征进行分类,再判断待检测人脸表情属于哪一类。

在一实施例中,对静态人脸表情特征进行分类,分类算法包括但不限于svm、决策树、k-means算法。其中,支持向量机(supportvectormachine,svm)是一类按监督学习(supervisedlearning)方式对数据进行二元分类(binaryclassification)的广义线性分类器(generalizedlinearclassifier)。k-means算法(k-meansclusteringalgorithm,k均值聚类算法)是一种迭代求解的聚类分析算法,其步骤是随机选取k个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类。每分配一个样本,聚类的聚类中心会根据聚类中现有的对象被重新计算。这个过程将不断重复直到满足某个终止条件。

具体地,基于svm分类算法的其中一种实现是:

1.提前准备训练用的表情样本数据,例如casmeii等公开数据集,或自行采集的表情图片。提前准备表情分类类型,例如casmeii中将表情分为5种:happiness、others、disgust、repression、surprise;

2.利用训练数据来训练svm模型,得到表情的svm模型的决策面,将svm模型存储到模型库中;

在进行人脸表情特征分类时,只需要将待测静态人脸表情特征向量带入svm模型,即可确定出待测表情的表情分类。

第二动态表情提取模块24,根据静态人脸表情特征向量所属类别从连续的多帧待识别人脸图像中提取出第一动态人脸表情特征向量;其中单帧待识别人脸图像包含于多帧待识别人脸图像内;

在前述实施例中,提取了第fi帧的人脸图像的静态人脸表情特征,并确定了该静态人脸表情特征所属的类别。因此,在提取动态人脸表情特征时,提取的是以fi为基准,前后各取rt帧,rt为时间轴半径的连续的多帧图像。

最后,将所述第一动态人脸表情特征向量依次与预存的第二动态人脸表情特征向量进行比对,根据比对结果进行人脸识别。

在一实施例中,比对的结果可以采用提取的第一动态人脸表情特征向量与预存的第二动态人脸表情特征向量间的相似度表示。预存的第二动态人脸表情特征向量可以采用表情特征提取算法进行提取,并按前述的表情别类存入到数据库中。

具体地,相似度可以采用欧氏距离、余弦距离来表示。根据比对结果进行人脸识别,即是根据相似的大小来进行人脸识别。具体方法可以是将相似度超过预设的相度阈值判断为同一张人脸,即可以完成人脸识别。其中,阈值可以是0.8。

本发明通过结合人脸的时间和空间维度信息,能识别例如微笑时眉头舒展等微表情的动态特征,相对于静态人脸识别,具有更高的准确率。

本申请实施例还提供了一种设备,该设备可以包括:一个或多个处理器;和其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述设备执行图1所述的方法。在实际应用中,该设备可以作为终端设备,也可以作为服务器,终端设备的例子可以包括:智能手机、平板电脑、电子书阅读器、mp3(动态影像专家压缩标准语音层面3,movingpictureexpertsgroupaudiolayeriii)播放器、mp4(动态影像专家压缩标准语音层面4,movingpictureexpertsgroupaudiolayeriv)播放器、膝上型便携计算机、车载电脑、台式计算机、机顶盒、智能电视机、可穿戴设备等等,本申请实施例对于具体的设备不加以限制。

本申请实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块(programs),该一个或多个模块被应用在设备时,可以使得该设备执行本申请实施例的图1中人脸识别方法所包含步骤的指令(instructions)。

图6为本申请一实施例提供的终端设备的硬件结构示意图。如图所示,该终端设备可以包括:输入设备1100、第一处理器1101、输出设备1102、第一存储器1103和至少一个通信总线1104。通信总线1104用于实现元件之间的通信连接。第一存储器1103可能包含高速ram存储器,也可能还包括非易失性存储nvm,例如至少一个磁盘存储器,第一存储器1103中可以存储各种程序,用于完成各种处理功能以及实现本实施例的方法步骤。

可选的,上述第一处理器1101例如可以为中央处理器(centralprocessingunit,简称cpu)、应用专用集成电路(asic)、数字信号处理器(dsp)、数字信号处理设备(dspd)、可编程逻辑器件(pld)、现场可编程门阵列(fpga)、控制器、微控制器、微处理器或其他电子元件实现,该第一处理器1101通过有线或无线连接耦合到上述输入设备1100和输出设备1102。

可选的,上述输入设备1100可以包括多种输入设备,例如可以包括面向用户的用户接口、面向设备的设备接口、软件的可编程接口、摄像头、传感器中至少一种。可选的,该面向设备的设备接口可以是用于设备与设备之间进行数据传输的有线接口、还可以是用于设备与设备之间进行数据传输的硬件插入接口(例如usb接口、串口等);可选的,该面向用户的用户接口例如可以是面向用户的控制按键、用于接收语音输入的语音输入设备以及用户接收用户触摸输入的触摸感知设备(例如具有触摸感应功能的触摸屏、触控板等);可选的,上述软件的可编程接口例如可以是供用户编辑或者修改程序的入口,例如芯片的输入引脚接口或者输入接口等;输出设备1102可以包括显示器、音响等输出设备。

在本实施例中,该终端设备的处理器包括用于执行各设备中人脸识别装置各模块的功能,具体功能和技术效果参照上述实施例即可,此处不再赘述。

图7为本申请的一个实施例提供的终端设备的硬件结构示意图。图7是对图6在实现过程中的一个具体的实施例。如图所示,本实施例的终端设备可以包括第二处理器1201以及第二存储器1202。

第二处理器1201执行第二存储器1202所存放的计算机程序代码,实现上述实施例中图1所述方法。

第二存储器1202被配置为存储各种类型的数据以支持在终端设备的操作。这些数据的示例包括用于在终端设备上操作的任何应用程序或方法的指令,例如消息,图片,视频等。第二存储器1202可能包含随机存取存储器(randomaccessmemory,简称ram),也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。

可选地,第二处理器1201设置在处理组件1200中。该终端设备还可以包括:通信组件1203,电源组件1204,多媒体组件1205,语音组件1206,输入/输出接口1207和/或传感器组件1208。终端设备具体所包含的组件等依据实际需求设定,本实施例对此不作限定。

处理组件1200通常控制终端设备的整体操作。处理组件1200可以包括一个或多个第二处理器1201来执行指令,以完成上述数据处理方法中的全部或部分步骤。此外,处理组件1200可以包括一个或多个模块,便于处理组件1200和其他组件之间的交互。例如,处理组件1200可以包括多媒体模块,以方便多媒体组件1205和处理组件1200之间的交互。

电源组件1204为终端设备的各种组件提供电力。电源组件1204可以包括电源管理系统,一个或多个电源,及其他与为终端设备生成、管理和分配电力相关联的组件。

多媒体组件1205包括在终端设备和用户之间的提供一个输出接口的显示屏。在一些实施例中,显示屏可以包括液晶显示器(lcd)和触摸面板(tp)。如果显示屏包括触摸面板,显示屏可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。

语音组件1206被配置为输出和/或输入语音信号。例如,语音组件1206包括一个麦克风(mic),当终端设备处于操作模式,如语音识别模式时,麦克风被配置为接收外部语音信号。所接收的语音信号可以被进一步存储在第二存储器1202或经由通信组件1203发送。在一些实施例中,语音组件1206还包括一个扬声器,用于输出语音信号。

输入/输出接口1207为处理组件1200和外围接口模块之间提供接口,上述外围接口模块可以是点击轮,按钮等。这些按钮可包括但不限于:音量按钮、启动按钮和锁定按钮。

传感器组件1208包括一个或多个传感器,用于为终端设备提供各个方面的状态评估。例如,传感器组件1208可以检测到终端设备的打开/关闭状态,组件的相对定位,用户与终端设备接触的存在或不存在。传感器组件1208可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在,包括检测用户与终端设备间的距离。在一些实施例中,该传感器组件1208还可以包括摄像头等。

通信组件1203被配置为便于终端设备和其他设备之间有线或无线方式的通信。终端设备可以接入基于通信标准的无线网络,如wifi,2g或3g,或它们的组合。在一个实施例中,该终端设备中可以包括sim卡插槽,该sim卡插槽用于插入sim卡,使得终端设备可以登录gprs网络,通过互联网与服务器建立通信。

由上可知,在图7实施例中所涉及的通信组件1203、语音组件1206以及输入/输出接口1207、传感器组件1208均可以作为图6实施例中的输入设备的实现方式。

上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1