人性识别方法、装置、存储介质和电子设备与流程

文档序号:20703915发布日期:2020-05-12 16:07阅读:470来源:国知局
人性识别方法、装置、存储介质和电子设备与流程

本申请涉及信息处理领域,具体而言,涉及一种人性识别方法、装置、存储介质和电子设备。



背景技术:

企业招聘员工,需要识别备选人的人性特点,以选择适合企业需要的员工。团体组织社交活动时,也需要分析相关人的人性特点,以更好地组织活动。生活工作中经常需要对人性进行分析判断。

目前,人性识别一般是通过问卷调查或语音问答的方式实现的,需要消耗大量的时间和人力成本。如果答卷人受客观环境影响,常常不能客观地回答问题,使分析结果不够客观准确。



技术实现要素:

为了解决上述问题,本申请实施例提供了一种人性识别方法、装置和电子设备。

第一方面,本申请实施例提供了一种人性识别方法,包括以下步骤:

获取目标对象的面部视频;

确定所述面部视频中所包含的面部特征信息和语音特征信息;

基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

可选地,所述获取目标对象的面部视频,包括:

接收针对相机应用界面输入的人性功能识别指令,切换为摄像模式;

获取在所述摄像模式下针对目标对象拍摄的面部视频。

可选地,所述确定所述面部视频中所包含的面部特征信息和语音特征信息,包括:

提取所述面部视频的面部图像部分和音频部分,所述面部图像部分包括至少一帧面部图像;

基于所述面部图像部分,获取所述面部特征信息;

基于所述音频部分,获取所述语音特征信息。

可选地,所述面部特征信息包括面部微表情信息以及生物特征信息,所述基于所述面部图像部分,获取所述面部特征信息,包括:

获取所述面部图像部分中的第一面部图像,定位所述第一面部图像的生物特征区域,识别所述生物特征区域的生物特征信息;

基于面部描述样本,识别所述第一面部图像的面部微表情信息;

获取所述第一面部图像的下一帧面部图像,将所述下一帧面部图像作为第一面部图像,并执行所述定位所述第一面部图像的生物特征区域的步骤;

当确定不存在下一帧面部图像时,生成所述面部视频对应的面部特征信息。

可选地,所述基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息,包括:

将所述生物特征信息、所述面部微表情信息和所述语音特征信息,输入到训练完成的人性识别模型中,输出所述目标对象的人性特征信息。

可选地,所述方法还包括:

获取所述目标对象的身份信息;

所述基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息包括:

基于所述身份信息、所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

可选地,所述获取目标对象的面部视频,包括:

获取相机针对目标对象采集的持续预设时长的面部视频;

所述基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息之后,还包括:

获取所述相机针对所述目标对象采集的持续预设时长的下一个面部视频,并执行所述确定所述面部视频中所包含的面部特征信息和语音特征信息的步骤;

当所述下一个面部视频为所设定的最后一个面部视频时,生成包括所述人性特征信息的全部面部视频的人性特征信息。

第二方面,本申请实施例提供了一种人性识别装置,包括:

获取单元,用于获取目标对象的面部视频;

第一确定单元,用于确定所述面部视频中所包含的面部特征信息和语音特征信息;

第二确定单元,用于基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

第三方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项方法的步骤。

第四方面,本申请实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一项方法的步骤。

本申请提供的人性识别方法、装置、存储介质和电子设备,获取目标对象的面部视频;确定所述面部视频中所包含的面部特征信息和语音特征信息;基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。本申请的技术方案通过结合目标对象的面部视频中所包含的面部特征信息和语音特征信息就可客观有效地识别人物的人性特征信息。相比通过调查问卷等方式,本申请的技术方案降低了人力成本,节省了时间,同时,可提高分析结果的准确性。

附图说明

图1为可以应用本申请实施例的人性识别方法或装置的示例性系统架构的示意图;

图2是本申请实施例提供的一种人性识别方法的流程示意图;

图3是本申请实施例提供的另一种人性识别方法的流程示意图;

图4是本申请实施例提供的又一种人性识别方法的流程示意图;

图5是本申请实施例提供的再一种人性识别方法的流程示意图;

图6是本申请实施例提供的另一种人性识别方法的流程示意图;

图7是本申请实施例提供的又一种人性识别方法的流程示意图;

图8是本申请实施例提供的一种人性识别装置的结构示意图;

图9为本申请实施例所涉及的一种电子设备的结构示意图。

具体实施方式

下面结合附图和实施例对本申请进行进一步的介绍。

在下述介绍中,术语“第一”、“第二”仅为用于描述的目的,而不能理解为指示或暗示相对重要性。下述介绍提供了本申请的多个实施例,不同实施例之间可以替换或者合并组合,因此本申请也可认为包含所记载的相同和/或不同实施例的所有可能组合。因而,如果一个实施例包含特征a、b、c,另一个实施例包含特征b、d,那么本申请也应视为包括含有a、b、c、d的一个或多个所有其他可能的组合的实施例,尽管该实施例可能并未在以下内容中有明确的文字记载。

下面的描述提供了示例,并且不对权利要求书中阐述的范围、适用性或示例进行限制。可以在不脱离本申请内容的范围的情况下,对描述的元素的功能和布置做出改变。各个示例可以适当省略、替代或添加各种过程或组件。例如所描述的方法可以以所描述的顺序不同的顺序来执行,并且可以添加、省略或组合各种步骤。此外,可以将关于一些示例描述的特征组合到其他示例中。

图1为可以应用本申请实施例的人性识别方法或装置的示例性系统架构的示意图。摄像设备101可设置在终端设备102的内部,摄像设备101也可以独立于终端设备102,并与终端设备102相连。相连的方式包括直接通过数据线连接,也包括通过网络链接。网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

上述终端设备102包括但不限于诸如服务器、移动电话、笔记本电脑、数字广播接收器、pda(个人数字助理)、pad(平板电脑)、pmp(便携式多媒体播放器)、车载终端(例如车载导航终端)、数字电视、台式计算机等等。

摄像设备101采集目标对象的面部视频,并将面部视频发送给终端设备102。终端设备102基于该面部视频所包含的面部特征信息和语音特征信息,确定所述目标对象的人性特征信息。

参见图2,图2是本申请实施例提供的一种人性识别方法的流程示意图,在本申请实施例中,所述方法包括:

s201、获取目标对象的面部视频。

目标对象为要确定人性特征的目标对象。可通过摄像机等摄像设备拍摄目标对象的面部视频。也可通过摄像头等图像获取设备获取目标对象的多张面部图像,再由麦克风等语音获取设备获取目标对象对应的语音信息。还可以直接获取存储设备中已有的相关人的面部视频。总之,只要能获取到目标对象的面部视频,完成本申请的目的即可,本申请对如何获取到目标对象的面部视频不作任何限制。

s202、确定所述面部视频中所包含的面部特征信息和语音特征信息。

面部特征信息为基于目标对象的面部图像所获得的信息。面部特征信息可包括微表情信息以及生物特征信息。

微表情信息为目标对象处于活动状态时所体现出的面部形态信息,微表情信息会随着人的心情等客观因素而变化。微表情信息可包括:嘴角微微上扬、眉头紧皱等。

生物特征信息为目标对象处于静态时所体现出的面部形态信息,生物特征信息不随人的心情等客观因素而变化。生物特征信息可以包括:眼部特征信息、嘴部特征信息、鼻部特征信息等等。眼部特征信息可包括眼睛的形状信息、眼部的长度信息等等。嘴部特征信息可包括嘴的形状信息、嘴的颜色信息等等。

语音特征信息为基于目标对象的语音信息提取出来的信息。语音特征新可包括:振幅、频率和语速等。

s203、基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

可在系统中预存人性特征匹配规则。例如:鼻头丰满有肉,则代表目标对象内心正直,富有理性。额头圆润饱满,则代表目标对象头脑聪慧、目光长远。语音振幅较低且语速较慢,则代表目标对象心机较深等。通过预存的人性特征匹配规则和面部特征信息,即可确定出目标对象的人性特征信息。

也可以在系统中建立人性识别模型,并输入大量的样本对模型进行训练,以使模型可达到预设的识别准确度。样本为带有人性特征标签的面部特征信息。通过人性识别模型的识别结果可以是多个带有不同概率的人性特征信息,可以选择概率最高的人性特征信息作为目标对象的人性特征信息。

本申请实施例提供的人性识别方法,通过目标对象的面部视频就可客观有效地识别人物的人性特征信息。因此,可以解决现有技术中通过调查问卷等方式,造成的人力成本较高,识别效率较低且不够客观准确的技术问题。

可选地,所述方法还包括:

获取所述待测人的身体视频;

确定所述身体视频的身体特征;

所述基于所述面部特征和所述语音特征,确定所述待测人的人性特征包括:

基于所述身体特征、所述面部特征和所述语音特征,确定所述待测人的人性特征。

上述身体特征包括:身体微微向左方倾斜,双手握拳、双腿并拢等。身体特征往往是目标对象心态和性格的重要体现。因此,本实施例通过考虑身体特征,来确定目标对象的人性特征,可以更加细致准确地确定出目标对虾干的人性特征。

参见图3,图3是本申请实施例提供的另一种人性识别方法的流程示意图,在本申请实施例中,所述方法包括:

s301、接收针对相机应用界面输入的人性功能识别指令,切换为摄像模式。

可将本申请实施例提供的人性识别方法应用于服务器、移动电话、笔记本电脑等智能终端设备上,上述终端设备上安装有摄像装置。在上述终端设备上仅需简单的操作,即可将终端设备切换为摄像模式,并通过该摄像模式进行人性特征的识别。

s302、获取在所述摄像模式下针对目标对象拍摄的面部视频。

目标对象应在摄像装置的合理距离内,以保证获取到目标对象的较清晰的视频。

s303、确定所述面部视频中所包含的面部特征信息和语音特征信息。

s303的相关描述可参照上述图2中步骤s202的描述,不再赘述。

s304、基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

s304的相关描述可参照上述图2中步骤s203的描述,不再赘述。

本申请实施例提供的人性识别方法,被应用于各种带有摄像装置的智能设备上,可使用户在需要进行人性特征识别的情况下,快速方便地应用该人性识别方法,为用户带来良好的使用体验。

参见图4,图4是本申请实施例提供的又一种人性识别方法的流程示意图,在本申请实施例中,所述方法包括:

s401、获取目标对象的面部视频。

s401的相关描述可参照上述图2中步骤s201的描述,不再赘述。

s402、提取所述面部视频的面部图像部分和音频部分,所述面部图像部分包括至少一帧面部图像。

如何提取面部视频的面部图像部分和音频部分是本领域技术人员公知的技术,本实施例不再赘述。

s403、基于所述面部图像部分,获取所述面部特征信息。

对面部图像部分中包含的一帧图像进行处理,获取面部特征信息。具体地,可将图像进行直方图均衡化处理,以获得图像的灰度直方图,并对灰度直方图进行高斯平滑滤波处理,以获得目标对象的眼部轮廓、鼻部轮廓、嘴部轮廓等。再基于上述目标对象的眼部轮廓、鼻部轮廓、嘴部轮廓等,获取到面部特征信息。

s404、基于所述音频部分,获取所述语音特征信息。

语音特征信息为基于目标对象的语音信息提取出来的信息。语音特征新可包括:振幅、频率和语速等。通过音频提取出该音频对应的振幅、频率和语速等信息,是本领域技术人员公知的技术,本实施例不再赘述。

s405、基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

s405的相关描述可参照上述图2中步骤s203的描述,不再赘述。

本申请实施例提供的人性识别方法,通过将面部视频拆分为面部图像部分和音频部分,再分别从面部图像部分和音频部分提取对应的面部视频特征。最后,基于面部视频特征确定目标对象的人性特征信息。本实施例的方法可以更合理客观地确定目标对象的人性特征。

参见图5,图5是本申请实施例提供的一种再人性识别方法的流程示意图,在本申请实施例中,所述方法包括:

s501、获取目标对象的面部视频。

s501的相关描述可参照上述图2中步骤s201的描述,不再赘述。

s502、提取所述面部视频的面部图像部分和音频部分,所述面部图像部分包括至少一帧面部图像。

s502的相关描述可参照上述图2中步骤s402的描述,不再赘述。

s503、获取所述面部图像部分中的第一面部图像,定位所述第一面部图像的生物特征区域,识别所述生物特征区域的生物特征信息。

生物特征信息为目标对象处于静态时所体现出的面部形态信息,生物特征信息不随人的心情等客观因素而变化。生物特征信息可以包括:眼部特征信息、嘴部特征信息、鼻部特征信息等等。眼部特征信息可包括眼睛的形状信息、眼部的长度信息等等。嘴部特征信息可包括嘴的形状信息、嘴的颜色信息等等。

s504、基于面部描述样本,识别所述第一面部图像的面部微表情信息。

微表情信息为目标对象处于活动状态时所体现出的面部形态信息,微表情信息会随着人的心情等客观因素而变化。微表情信息可包括:嘴角微微上扬、眉头紧皱等。

面部描述样本为描述了面部形态信息与面部微表情对应关系的样本。面部描述样本可包括:两眉之间的距离与前额宽度的占比小于预定占比阈值,则目标对象处于眉头紧皱的微表情状态。

确定第一面部图像中的面部形态信息,再基于面部描述样本中存在的面部形态信息与面部微表情对应关系,即可识别所述第一面部图像的面部微表情信息。

s505、判断否存在下一帧面部图像。

若存在,则所述下一帧面部图像作为第一面部图像,并执行上述步骤s502。若不存在,则执行步骤s506。

s506、当确定不存在下一帧面部图像时,生成所述面部视频对应的面部特征信息。

由上述步骤s503及步骤s504获取到的微表情信息和生物特征信息组合为面部特征信息。上述的面部特征信息可包括多个面部特征信息及多个生物特征信息。

s507、将所述生物特征信息、所述面部微表情信息和所述语音特征信息,输入到训练完成的人性识别模型中,输出所述目标对象的人性特征信息。

本申请实施例提供的人性识别方法,通过从目标对象的视频中提取出的生物特征信息、面部微表情信息和语音特征信息,再基于上述生物特征信息、面部微表情信息和语音特征信息确定目标对象的人性特征信息。本实施例提供的方法综合考虑了人性特征信息对生物特征信息、面部微表情信息和语音特征信息的影响,可以较客观准确地确定出目标对象的人性特征信息。

参见图6,图6是本申请实施例提供的另一种人性识别方法的流程示意图,在本申请实施例中,所述方法包括:

s601、获取目标对象的面部视频。

s601的相关描述可参照上述图2中步骤s201的描述,不再赘述。

s602、确定所述面部视频中所包含的面部特征信息和语音特征信息。

s602的相关描述可参照上述图2中步骤s202的描述,不再赘述。

s603、获取所述目标对象的身份信息。

目标对象的身份信息包括目标对象的年纪、籍贯、教育背景、性别等信息。

s604、基于所述身份信息、所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

由于人的身份信息,如年纪、籍贯、教育背景等,往往对人的人性特征产生重要的影响。本申请实施例提供的人性识别方法,除了考虑到面部特征信息和语音特征信息外,还将目标对象的身份信息作为输入,以确定目标对象的人性特征。因此,本实施例提供的方法可较好地确定出目标对象的人性特征。

参见图7,图7是本申请实施例提供的又一种人性识别方法的流程示意图,在本申请实施例中,所述方法包括:

s701、获取相机针对目标对象采集的持续预设时长的面部视频。

上述预设时长可根据具体需求和应用场景进行设定。预设时长可以是30秒、1分钟、5分钟等。预设时长的时间越长,系统采集到的视频时间也就越长,系统通过视频可确定的面部特征信息和语音特征信息也就越多,系统检测人性特征的准确度也会越准确。

s702、确定所述面部视频中所包含的面部特征信息和语音特征信息。

s702的相关描述可参照上述图2中步骤s202的描述,不再赘述。

s703、基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

s703的相关描述可参照上述图2中步骤s203的描述,不再赘述。

s704、判断当前面部视频是否采集的最后一个面部视频。

若是,则执行步骤s705;若否,则执行步骤s701。

s705、生成包括所述人性特征信息的全部面部视频的人性特征信息。

通过本申请实施例提供的上述人性识别方法,可获取到目标对象对应的多个人性识别结果,可选择识别次数最多的人性特征,作为该目标对象的人性识别结果。本实施例提供的人性识别方法,通过多段面部视频中包含的面部特征进行人性识别,相比仅通过一段面部视频确定人性特征信息的方法,可以更加准确的确定出目标对象对应的人性特征新。

为更好地阐述本申请的技术方案,下面以一个将本申请实施例提供的人性识别方法应用于智能手机端或平板电脑中的具体实施例。本方案基于手机或是平板的相机对人脸的表情语言神态的视频拍摄,通过对于人脸关键点的位置进行定位,捕捉,分析;结合大数据分析出这个人的人性的优缺点;提前帮助对方了解一个人大致的品性,而且分析的内容更有参考意义,并且方便普通大众使用。发明实施例提供的人性识别方法可包括以下步骤:

步骤1、首先通过打开相机应用,设置“一个人性识别”功能。

需要说明的是本申请实施例提供的人性识别方法不仅可应用于手机端,还可应用于个人电脑、服务器、可穿戴设备等智能终端上。

步骤2、打开后,相机会切换至摄像模式,并有提示“将人脸摆在特定的距离范围内”进行视频拍摄。

步骤3、每次拍摄1分钟,一共拍摄5次。

拍摄次数和拍摄时间都可根据具体需要进行相应设定。

步骤4、利用相机ai(artificialintelligence,人工智能)技术捕捉被拍者的面部微表情,识别其声音语气声调,对面部关键点:眼睛、嘴巴、脸颊进行定位。根据相关书籍中的人性对应规则,或者利用大数据分析模,分析出人物的人性检测结果。

步骤5、人性检测结果可有下列三部分组成:人性评分、人性优点内容、人性缺点内容。

上述图2~图7详细阐述了本申请实施例的人性识别方法。请参见图8,图8是本申请实施例提供的一种人性识别装置的结构示意图,如图8所示,所述人性识别装置包括:

获取单元801,用于获取目标对象的面部视频;

第一确定单元802,用于确定所述面部视频中所包含的面部特征信息和语音特征信息;

第二确定单元803,用于基于所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

可选地,获取单元801具体用于:

接收针对相机应用界面输入的人性功能识别指令,切换为摄像模式;

获取在所述摄像模式下针对目标对象拍摄的面部视频。

可选地,所述第一确定单元802具体用于:

提取所述面部视频的面部图像部分和音频部分,所述面部图像部分包括至少一帧面部图像;

基于所述面部图像部分,获取所述面部特征信息;

基于所述音频部分,获取所述语音特征信息。

可选地,所述第一确定单元802具体用于:

获取所述面部图像部分中的第一面部图像,定位所述第一面部图像的生物特征区域,识别所述生物特征区域的生物特征信息;

基于面部描述样本,识别所述第一面部图像的面部微表情信息;

获取所述第一面部图像的下一帧面部图像,将所述下一帧面部图像作为第一面部图像,并执行所述定位所述第一面部图像的生物特征区域的步骤;

当确定不存在下一帧面部图像时,生成所述面部视频对应的面部特征信息。

可选地,所述第二确定单元803具体用于:

将所述生物特征信息、所述面部微表情信息和所述语音特征信息,输入到训练完成的人性识别模型中,输出所述目标对象的人性特征信息。

可选地,所述装置还包括:

第二获取单元804,用于获取所述目标对象的身份信息;

所述第二确定单元803具体用于:

基于所述身份信息、所述面部特征信息和所述语音特征信息,确定所述目标对象的人性特征信息。

可选地,所述获取单元801用于:

获取相机针对目标对象采集的持续预设时长的面部视频;

所述获取单元801还用于:

获取所述相机针对所述目标对象采集的持续预设时长的下一个面部视频,并执行所述确定所述面部视频中所包含的面部特征信息和语音特征信息的步骤;

当所述下一个面部视频为所设定的最后一个面部视频时,生成包括所述人性特征信息的全部面部视频的人性特征信息。

本领域的技术人员可以清楚地了解到本申请实施例的技术方案可借助软件和/或硬件来实现。本说明书中的“单元”和“模块”是指能够独立完成或与其他部件配合完成特定功能的软件和/或硬件,其中硬件例如可以是fpga(field-programmablegatearray,现场可编程门阵列)、ic(integratedcircuit,集成电路)等。

本申请实施例的各处理单元和/或模块,可通过实现本申请实施例所述的功能的模拟电路而实现,也可以通过执行本申请实施例所述的功能的软件而实现。

本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述人性识别方法的步骤。其中,计算机可读存储介质可以包括但不限于任何类型的盘,包括软盘、光盘、dvd、cd-rom、微型驱动器以及磁光盘、rom、ram、eprom、eeprom、dram、vram、闪速存储器设备、磁卡或光卡、纳米系统(包括分子存储器ic),或适合于存储指令和/或数据的任何类型的媒介或设备。

参见图9,其示出了本申请实施例所涉及的一种电子设备的结构示意图,该电子设备可以用于实施上述实施例中人性识别方法。具体来讲:

存储器920可用于存储软件程序以及模块,处理器990通过运行存储在存储器920的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器920可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端设备的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器920可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器920还可以包括存储器控制器,以提供处理器990和输入单元930对存储器920的访问。

输入单元930可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,输入单元930可包括触敏表面931(例如:触摸屏、触摸板或触摸框)。触敏表面931,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面931上或在触敏表面931附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面931可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器990,并能接收处理器990发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面931。

显示单元940可用于显示由用户输入的信息或提供给用户的信息以及终端设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元940可包括显示面板941,可选的,可以采用lcd(liquidcrystaldisplay,液晶显示器)、oled(organiclight-emittingdiode,有机发光二极管)等形式来配置显示面板941。进一步的,触敏表面931可覆盖显示面板941,当触敏表面931检测到在其上或附近的触摸操作后,传送给处理器990以确定触摸事件的类型,随后处理器990根据触摸事件的类型在显示面板941上提供相应的视觉输出。虽然在图9中,触敏表面931与显示面板941是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面931与显示面板941集成而实现输入和输出功能。

处理器990是终端设备的控制中心,利用各种接口和线路连接整个终端设备的各个部分,通过运行或执行存储在存储器920内的软件程序和/或模块,以及调用存储在存储器920内的数据,执行终端设备的各种功能和处理数据,从而对终端设备进行整体监控。可选的,处理器990可包括一个或多个处理核心;其中,处理器990可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器990中。

具体在本实施例中,终端设备的显示单元是触摸屏显示器,终端设备还包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行述一个或者一个以上程序包含实现上述人性识别方法的步骤。

在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。

在本申请各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。

以上介绍仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1