终端交互方法、装置、计算机设备及存储介质与流程

文档序号:20780237发布日期:2020-05-19 21:10阅读:126来源:国知局
终端交互方法、装置、计算机设备及存储介质与流程
本申请涉及人工智能领域,尤其涉及一种终端交互方法、装置、计算机设备及存储介质。
背景技术
:随着计算机技术的发展,计算机终端已遍布于人们生活中的各个角落。现今,人们进行许多活动时都需要操作计算机终端。为保障安全性,终端在允许用户进行操作前,有时会对用户的身份进行验证,但现有的验证方法的辨识维度较为单一,且通常只需要在用户一开始操作时进行验证,未能提供很好的安全保障。技术实现要素:本申请实施例的目的在于提出一种终端交互方法,以解决现有的终端交互方法存在辨识维度较为单一,且通常只需要在用户一开始操作时进行验证,未能提供很好的安全保障的问题。为了解决上述技术问题,本申请实施例提供一种终端交互方法,采用了如下所述的技术方案:获取第一待验证视频和第一待验证音频;将所述第一待验证音频的特征参数输入至识别模型以对所述第一待验证音频进行分析得到第一音频分析值;通过人脸图像的面部动作识别技术对所述第一待验证视频进行分析以得到第一视频分析值;根据所述第一音频分析值和所述第一视频分析值确定是否提供供用户进行交互操作的交互界面;以及在提供交互界面后,定时地获取第二待验证视频和第二待验证音频;基于所述第二待验证视频和第二待验证音频重新进行分析以确定是否关闭交互界面。进一步的,所述对所述第一待验证视频进行分析以得到第一视频分析值包括:在所述第一待验证视频中提取存在微表情的图像序列;获取所述图像序列中每一张图像的情绪编码;在同一个图像序列的图像中,将情绪编码相同的图像分为一组,并根据分组中的图像确定每组情绪编码的分值,以分值最大的分组对应的情绪编码作为所述图像序列的图像情绪编码;根据所述图像序列的图像情绪编码确定所述第一视频分析值。进一步的,所述在所述第一待验证视频中提取存在微表情的图像序列包括:在所述第一待验证视频中,按照预设的时间间隔提取抽样图像;判断每张抽样图像中是否存在微表情;当抽样图像中存在微表情时,获取所述第一待验证视频中与所述抽样图像邻近的图像以组成所述图像序列。进一步的,所述根据分组中的图像确定每组情绪编码的分值包括:按照图像在所述待验证视频中出现的时间对所述图像序列中的每一张图像进行排列,并根据排列的顺序设置每一张图像的权值,所述权值为一个跟随排列的顺序先递增后递减的数列;以每组中所有图像的权值相加以得到该组对应的情绪编码的分值。进一步的,所述图像序列为多个图像序列,所述根据所述图像序列的图像情绪编码确定所述第一视频分析值包括:对每个图像序列赋予相同的权值;识别每个图像序列的时间段,将第一待验证音频按识别到的时间段进行分段,得到与每个图像序列对应的音频片段;对所述音频片段进行分析以获得每个图像序列对应的音频情绪编码;当音频情绪编码与同时间段内的图像序列的图像情绪编码相同时,增大该图像序列对应的权值;将图像情绪编码相同的图像序列分为一组,并将每组中图像序列对应的权值相加以得到每组图像序列的分值,以分值最大的分组对应的图像情绪编码为所述第一视频分析值。进一步的,所述根据所述第一音频分析值和所述第一视频分析值确定是否提供供用户进行交互操作的交互界面包括:按照预设的规则确定所述第一音频分析值对应的音频分值和所述第二视频分析值对应的视频分值;从所述第一待验证视频中提取图像数据进行人脸匹配以获得人脸匹配率;以所述人脸匹配率为权值计算所述音频分值和所述视频分值的加权和;当所述加权和大于安全阈值时,提供相应的交互界面;当所述加权和小于或等于安全阈值时,则不提供相应的交互界面。进一步的,所述定时地获取第二待验证视频和第二待验证音频包括:获取当前交互界面的安全等级;根据所述安全等级确定获取第二待验证视频和第二待验证音频的频率,并按照所述频率获取第二待验证视频和第二待验证音频。为了解决上述技术问题,本申请实施例还提供一种终端交互装置,采用了如下所述的技术方案:第一获取模块,用于获取第一待验证视频和第一待验证音频;音频分析模块,用于将所述第一待验证音频的特征参数输入至识别模型以对所述第一待验证音频进行分析得到第一音频分析值;视频分析模块,用于通过人脸图像的面部动作识别技术对所述第一待验证视频进行分析以得到第一视频分析值;第一确定模块,用于根据所述第一音频分析值和所述第一视频分析值确定是否提供供用户进行交互操作的交互界面;以及第二获取模块,用于在提供交互界面后,定时地获取第二待验证视频和第二待验证音频;第二确定模块,基于所述第二待验证视频和第二待验证音频重新进行分析以确定是否关闭交互界面。为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述的终端交互方法的步骤。为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的终端交互方法的步骤。与现有技术相比,本申请实施例主要有以下有益效果:对第一待验证音频进行分析得到第一音频分析值,对第一待验证视频进行分析得到第一视频分析值,然后综合第一音频分析值和第一视频分析值来提供供用户进行交互操作的交互界面,从而能够增加终端交互的辨识维度,提高终端交互的安全性。另外,定时地获取第二待验证视频和第二待验证音频,对第二待验证音频进行分析得到第二音频分析值,对第二待验证视频进行分析得到第二视频分析值,然后综合第二音频分析值和第二视频分析值确定是否关闭交互界面,从而能够实现定时的分析,并根据分析结果控制终端,实现在用户使用终端的过程中也进行识别,进一步提高了终端交互的安全性。附图说明为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1是本申请可以应用于其中的示例性系统架构图;图2是根据本申请的终端交互方法的一个实施例的流程图;图3是图2中步骤s3的一种具体实施方式的流程图;图4是图3中步骤s31的一种具体实施方式的流程图;图5是图3中步骤s33的一种具体实施方式的流程图;图6是图3中步骤s34的一种具体实施方式的流程图;图7是图2中步骤s4的一种具体实施方式的流程图;图8是图2中步骤s5的一种具体实施方式的流程图;图9是根据本申请的终端交互装置的一个实施例的结构示意图;图10是根据本申请的计算机设备的一个实施例的结构示意图。具体实施方式除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的
技术领域
的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。为了使本
技术领域
的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、mp3播放器(movingpictureexpertsgroupaudiolayeriii,动态影像专家压缩标准音频层面3)、mp4(movingpictureexpertsgroupaudiolayeriv,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。需要说明的是,本申请实施例所提供的终端交互方法一般由服务器/终端设备执行,相应地,终端交互装置一般设置于服务器/终端设备中。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。继续参考图2,示出了根据本申请的终端交互方法的一个实施例的流程图。所述的终端交互方法,包括以下步骤:s1:获取第一待验证视频和第一待验证音频。在上述步骤s1中,第一待验证视频和第一待验证音频可以是由移动终端(例如,个人手机)或专用终端(例如,银行柜员机等)实时录制的视频和音频。在录制视频和音频的过程中,用户需要按照给定的话术说话或者回答销售人员的问题。例如,销售人员询问:“请问您是xx先生吗?”,用户回答:“是”,销售人员继续询问:“您购买的xx产品回报率为xx,回收周期为xx,请问您是否了解”,用户回答:“是”。s2:将所述第一待验证音频的特征参数输入至识别模型以对所述第一待验证音频进行分析得到第一音频分析值。在上述步骤s2中,可以通过以下步骤来实现对第一待验证音频的分析:(1)提取第一待验证音频的特征参数。其中,特征参数可以是mfcc(mel-scalefrequencycepstralcoefficients)特征参数,也可以是声强特征参数,也可以是共振峰特征参数。提取共振峰特征参数时,可以使用谱包络法、倒谱法、lpc内插法、lpc求根法、希尔伯特变换法等。提取声强特征参数时,可以进行如下计算:sil=10lg(i/i'),式中i为声强,i'=10e-12瓦/平米,为基准声强,sil即为声强特征参数。提取mfcc特征参数时,可以通过以下形式实现:(a)对第一待验证音频进行预加重、分帧和加窗。这里,进行预加重能够增加语音信号中高频段的分辨率,以去除口唇辐射的影响。而加窗分帧的作用是:语音信号本身是非平稳的,但是又兼具短时平稳的特点,因此将语音信号分成一小段将此看作平稳信号来处理。这里的分段可以理解为是:分帧,为了全面完整地分析语音信号,要有帧移(这里的理解与图像处理的滑动窗很类似)。此处的帧移可理解为加窗。可选地,还可以进行端点检测:检测有效声音段的起始点与结束点,以去除无效声音段,从而提高语音信号的处理效率。(b)对每一个短时分析窗,通过fft(快速傅里叶变换)得到对应的频谱。(c)将所述频谱通过梅尔滤波器组得到梅尔频谱。(d)在梅尔频谱上面进行倒谱分析获得梅尔频率倒谱系数mfcc。可选地,特征参数还可以是语速、能量、平均过零率、基音频率等韵律特征。(2)将提取到的特征参数输入至预先训练好的识别模型以得到第一音频分析值。这里,用于训练识别模型的训练集通常包括有特征参数和该特征参数对应的分类结果。这样,在训练的过程中,识别模型对特征参数的识别结果将越来越接近训练集的分类结果。当识别结果与分类结果相比,其准确率达到一定程度时,即可认为识别模型已经训练完成。可选地,训练集中的分类结果可简单地分为欺诈和安全两个结果,也可以分为害怕、反感、惊讶、困惑、思考、哀伤、生气等多个结果。识别模型可以使用隐马尔可夫模型hmm、高斯混合模型gmm、支持向量机svm、人工神经网络ann等,其中使用支持向量机svm时,易于调试和实验。s3:通过人脸图像的面部动作识别技术对所述第一待验证视频进行分析以得到第一视频分析值。进一步地,如图3所示,上述步骤s3可以包括:s31:在所述第一待验证视频中提取存在微表情的图像序列。进一步地,如图4所示,上述步骤s31可以包括:s311:在所述第一待验证视频中,按照预设的时间间隔提取抽样图像。在上述步骤s311中,预设的时间间隔可以是1s、2s、5s等。例如,预设的时间间隔取值为1s,即提取的抽样图像为第一待验证视频中1s、2s、3s......时对应的图像。由于有些微表情的持续时间很短(据统计,最短时间的微表情甚至可以仅持续0.25s),故在计算能力允许的条件下,预设的时间间隔尽量取更小的值。s312:判断每张抽样图像中是否存在微表情,当抽样图像中存在微表情时,获取所述第一待验证视频中与所述抽样图像邻近的图像以组成所述图像序列。在上述步骤s312中,可以通过请求外部的面部动作编码系统(facialactioncodingsystem,facs)来实现判断抽样图像中是否存在微表情。在facs系统中,人脸图像会被识别存在哪些面部动作,然后根据所存在的面部动作得到人脸图像对应的情绪编码。不同的面部动作编号对应着不同的面部动作,例如,au1:抬起眉毛内角,au2:抬起眉毛外角,au4:降低眉毛,au6:脸颊提升,au9:皱鼻......facs识别到的面部动作为:au4+au6+au9+au11+au16+au25,则此时得到的情绪编码对应的情绪为疼痛。面部动作为:au4+au5+au7+au23,则此时得到的情绪编码对应的情绪为愤怒。面部动作为:au4+au14,则此时得到的情绪编码对应的情绪为思考。与抽样图像邻近的图像可以是抽样图像前20帧的图像和抽样图像后20帧的图像,也可以是抽样图像前0.5s的图像和抽样图像后0.5s的图像。承接上述步骤s311的例子,假设存在微表情的抽样图像在待验证视频中的时间为1s和3s,即0.5s至1.5s的图像为一个图像序列,2.5s至3.5s的图像为另一个图像序列。s32:获取所述图像序列中每一张图像的情绪编码。在上述步骤s32中,可以通过请求外部的面部动作编码系统(facialactioncodingsystem,facs)来获取图像序列中每一张图像的情绪编码。具体的,一个情绪编码可以对应着一种情绪。情绪可以简单地分为欺诈和安全两个结果,也可以分为害怕、反感、惊讶、困惑、思考、哀伤、生气等多个结果。s33:在同一个图像序列的图像中,将情绪编码相同的图像分为一组,并根据分组中的图像确定每组情绪编码的分值,以分值最大的分组对应的情绪编码作为所述图像序列的图像情绪编码。在上述步骤s33中,例如,在同一个图像序列中有十张图像,其中,3张图像识别的情绪为1:害怕,3张图像识别的情绪为0:正常,4张图像识别:2:困惑。即这十张图像将被按照害怕、正常和困惑划分为三组。进一步地,如图5所示,在上述步骤s33中,所述根据分组中的图像确定每组情绪编码的分值可以包括:s331:按照图像在所述待验证视频中出现的时间对所述图像序列中的每一张图像进行排列,并根据排列的顺序设置每一张图像的权值,所述权值为一个跟随排列的顺序先递增后递减的数列。在上述步骤s331中,数列可以是预设的,一般按照图像的排序,在排序正中的即是增大的峰值。例如,一个图像序列在视频中的时间为0.5s至1.5s,且图像序列中的图像共有10张,其在视频中出现的时间依次为:0.6s、0.7s、0.8s、0.9s、1.0s、1.1s、1.2s、1.3s、1.4s、1.5s。即对这10张图像设置的权值可以依次为1、2、3、4、5、6、5、4、3、2。情绪为害怕的分组的图像共有3张,其在视频中出现的时间依次为1s、1.1s、1.2s,其对应的权值依次为5、6、5,情绪为正常的分组的图像共有3张,其在视频中出现的时间依次为1.3s、1.4s、1.5s,其对应的权值依次为4、3、2。情绪为困惑的分组的图像共有4张,其在视频中出现的时间依次为0.6s、0.7s、0.8s、0.9s,其对应的权值依次为1、2、3、4。s332:以每组中所有图像的权值相加以得到该组对应的情绪编码的分值。在上述步骤s332中,承接上述步骤s331的例子,此时,害怕情绪的分组的分值为5+6+5=16,正常情绪的分组的分值为4+3+2=9,困惑情绪的分组的分值为1+2+3+4=10。害怕情绪分组的分值最大,故以害怕作为该图像序列的情绪。由于在人的微表情持续过程中,微表情的幅度呈现出一个先逐渐增加至峰值然后又逐渐回落至正常的趋势,所以在微表情持续过程中的中点时,微表情的幅度最大,此时图像对应的微表情识别结果可信度更高,故通过上述步骤s331和步骤s332能够对不同时间点的图像的微表情识别结果赋予合适的权值,从而使图像序列的情绪识别结果更加准确。s34:根据所述图像序列的情绪编码确定所述第一视频分析值。进一步地,如图6所示,当所述图像序列为多个图像序列时,上述步骤s34可以包括:s341:对每个图像序列赋予相同的权值。在上述步骤s341中,例如,在视频中提取到四个图像序列,时间分别为0.5s至1.5s,2s至3s,3.5s至4.5s,5s至6s,其中每个图像序列的权值可以都设置为1。s342:识别每个图像序列的时间段,将第一待验证音频按识别到的时间段进行分段,得到与每个图像序列对应的音频片段。s343:对所述音频片段进行分析以获得每个图像序列对应的音频情绪编码。在上述步骤s342和步骤s343中,承接上述步骤s341的例子,即在第一待验证音频中获取0.5s至1.5s,2s至3s,3.5s至4.5s,5s至6s这四段时间的音频片段,并对其进行分析以获得对应的音频情绪编码。这里,可以通过请求第三方音频情绪分析服务对音频片段进行分析。具体的分析方法也可以与上述步骤s2一致。s344:当音频情绪编码与同时间段内的图像序列的图像情绪编码相同时,增大该图像序列对应的权值。在上述步骤s344中,承接上述步骤s342和步骤s343的例子,假设0.5s至1.5s,2s至3s,3.5s至4.5s,5s至6s这四个图像序列的音频情绪编码依次为1:害怕,2:困惑,2:困惑,3:生气,并且这四段音频片段的音频情绪校验结果依次为1:害怕,0:正常,0:正常,0:正常,此时,0.5s至1.5s的图像序列对应的权值即增大为3,其他三个图像序列的权值依然保持为1。s345:将图像情绪编码相同的图像序列分为一组,并将每组中图像序列对应的权值相加以得到每组图像序列的分值,以分值最大的分组对应的图像情绪编码为所述第一视频分析值。在上述步骤s345中,承接上述步骤s344的例子,此时,0.5s至1.5s的图像序列为一组,其情绪编码为1:害怕,2s至3s、3.5s至4.5s的图像序列为一组,其情绪编码为2:困惑,5s至6s的图像序列为一组,其情绪编码为0:正常。情绪编码为1:害怕的分组的分值为3,情绪编码为2:困惑的分组的分值为1+1=2,情绪编码为0:正常的分组的分值为1,故第一视频分析值为1:害怕。通过上述步骤s341、s342、s343、s344和s345,能够在根据图像序列的情绪确定第一视频分析值时,结合图像序列对应的第一待验证音频的音频情绪编码进行计算,从而使得到的第一视频分析值更加准确。s4:根据所述第一音频分析值和所述第一视频分析值确定是否提供供用户进行交互操作的交互界面。进一步地,如图7所示,上述步骤s4可以包括:s41:按照预设的规则确定所述第一音频分析值对应的音频分值和所述第二视频分析值对应的视频分值。在上述步骤s41中,预设的规则中情绪与欺诈行为存在的相关关系越大,其对应的音频分值和视频分值可以越小。预设的规则可以如下表:第一音频分析值音频分值1:害怕12:困惑5......第一视频分析值视频分值1:害怕12:困惑5......s42:从所述第一待验证视频中提取图像数据进行人脸匹配以获得人脸匹配率。在上述步骤s42中,进行人脸匹配可以通过如下方式实现:提取视频中的人脸图像,将人脸图像与公安机关的人脸库进行比对以获得人脸匹配率。人脸匹配率可以是0.1、0.2、0.5、0.8、1等。s43:以所述人脸匹配率为权值计算所述音频分值和所述视频分值的加权和。在上述步骤s43中,假如人脸匹配率为0.6,第一音频分析值和第一视频分析值均为1:害怕,即加权和为0.6*1+0.6*1=1.2。s44:当所述加权和大于安全阈值时,提供相应的交互界面。s45:当所述加权和小于或等于安全阈值时,则不提供相应的交互界面。在上述步骤s44和步骤s45中,承接上述步骤s43的例子,当安全阈值为1.5时,此时加权和小于安全阈值,即判断用户存在欺诈行为,故不提供相应的交互界面。这里,相应的交互界面可以是用户购买金融产品的页面或金融产品的介绍页面等等。通过上述步骤s41、s42、s43、s44和s45,能够在根据第一音频分析值和第一视频分析值提供相应的交互界面时,结合人脸的匹配率对用户的身份进行进一步的验证,进一步地增加终端交互的辨识维度,提高终端交互的安全性。s5:定时地获取第二待验证视频和第二待验证音频。在上述步骤s5中,第二待验证视频和第二待验证音频可以是由移动终端(例如,个人手机)或专用终端(例如,银行柜员机等)录制的视频和音频。进一步地,如图8所示,上述步骤s5可以包括:s51:获取当前交互界面的安全等级。在上述步骤s51中,可以为每个交互界面预设一个安全标签,在安全标签中存储有该交互界面对应的安全等级。例如,车险购买页面的安全等级预设为a级,车险介绍页面的安全等级预设为b级等。a级的安全要求高于b级的安全要求。s52:根据所述安全等级确定获取第二待验证视频和第二待验证音频的频率,并按照所述频率获取第二待验证视频和第二待验证音频。在上述步骤s52中,可以按照预设的规则确定安全等级对应的频率。承接上述步骤s51的例子,假设在预设的规则中,安全等级a级对应的频率为每10s一次,安全等级b级对应的频率为每30s一次,即当用户在使用车险购买页面时,每10s采集一次第二待验证视频和第二待验证音频,当用户在使用车险介绍页面时,每30s采集一次第二待验证视频和第二待验证音频。通过上述步骤s51和步骤s52,能够根据用户当前所使用的交互界面的安全等级采用不同的视频和音频采集频率,当安全等级较高时采用较高的采集频率,当安全等级较低时采用较低的采集频率,这样能够在保证终端交互的安全性的基础之上减少数据处理量,提高效率。s6:基于所述第二待验证视频和第二待验证音频重新进行分析以确定是否关闭交互界面。在上述步骤s6中,对第二待验证视频和第二待验证音频重新进行分析的过程与对第一待验证视频和第一待验证音频进行的分析过程一致,在此不再一一赘述。另外,关于确定是否关闭交互界面的过程和上述步骤s4的限定类似,在此不再一一赘述。其不同之处主要在于当根据第二音频分析值和第二视频分析值得出安全性不够(例如,加权和小于安全阈值)时,关闭交互界面,当安全性足够(例如,加权和大于安全阈值)时,不关闭交互界面。在本实施例中,能够对第一待验证音频进行分析得到第一音频分析值,对第一待验证视频进行分析得到第一视频分析值,然后综合第一音频分析值和第一视频分析值来提供供用户进行交互操作的交互界面,从而能够增加终端交互的辨识维度,提高终端交互的安全性。另外,定时地获取第二待验证视频和第二待验证音频,对第二待验证音频进行分析得到第二音频分析值,对第二待验证视频进行分析得到第二视频分析值,然后综合第二音频分析值和第二视频分析值确定是否关闭交互界面,从而能够实现定时的分析,并根据分析结果控制终端,实现在用户使用终端的过程中也进行识别,进一步提高了终端交互的安全性。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(read-onlymemory,rom)等非易失性存储介质,或随机存储记忆体(randomaccessmemory,ram)等。应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。进一步参考图9,作为对上述图2所示方法的实现,本申请提供了一种终端交互装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。如图9所示,本实施例所述的终端交互装置400包括:第一获取模块401、音频分析模块402、视频分析模块403、第一确定模块404、第二获取模块405以及第二确定模块406。其中:第一获取模块401,用于获取第一待验证视频和第一待验证音频。音频分析模块402,用于将所述第一待验证音频的特征参数输入至识别模型以对所述第一待验证音频进行分析得到第一音频分析值。视频分析模块403,用于通过人脸图像的面部动作识别技术对所述第一待验证视频进行分析以得到第一视频分析值。第一确定模块404,用于根据所述第一音频分析值和所述第一视频分析值确定是否提供供用户进行交互操作的交互界面。第二获取模块405,用于在提供交互界面后,定时地获取第二待验证视频和第二待验证音频。第二确定模块406,基于所述第二待验证视频和第二待验证音频重新进行分析以确定是否关闭交互界面。在本实施例中,能够对第一待验证音频进行分析得到第一音频分析值,对第一待验证视频进行分析得到第一视频分析值,然后综合第一音频分析值和第一视频分析值来提供供用户进行交互操作的交互界面,从而能够增加终端交互的辨识维度,提高终端交互的安全性。另外,定时地获取第二待验证视频和第二待验证音频,对第二待验证音频进行分析得到第二音频分析值,对第二待验证视频进行分析得到第二视频分析值,然后综合第二音频分析值和第二视频分析值确定是否关闭交互界面,从而能够实现定时的分析,并根据分析结果控制终端,实现在用户使用终端的过程中也进行识别,进一步提高了终端交互的安全性。关于终端交互装置400的具体限定与上述终端交互方法的具体限定一致,在此不再一一赘述。为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图10,图10为本实施例计算机设备基本结构框图。所述计算机设备11包括通过系统总线相互通信连接存储器111、处理器112、网络接口113。需要指出的是,图中仅示出了具有组件111-113的计算机设备11,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本
技术领域
技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(applicationspecificintegratedcircuit,asic)、可编程门阵列(field-programmablegatearray,fpga)、数字处理器(digitalsignalprocessor,dsp)、嵌入式设备等。所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。所述存储器111至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,sd或dx存储器等)、随机访问存储器(ram)、静态随机访问存储器(sram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、可编程只读存储器(prom)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器111可以是所述计算机设备11的内部存储单元,例如该计算机设备11的硬盘或内存。在另一些实施例中,所述存储器111也可以是所述计算机设备11的外部存储设备,例如该计算机设备11上配备的插接式硬盘,智能存储卡(smartmediacard,smc),安全数字(securedigital,sd)卡,闪存卡(flashcard)等。当然,所述存储器111还可以既包括所述计算机设备11的内部存储单元也包括其外部存储设备。本实施例中,所述存储器111通常用于存储安装于所述计算机设备11的操作系统和各类应用软件,例如终端交互方法的程序代码等。此外,所述存储器111还可以用于暂时地存储已经输出或者将要输出的各类数据。所述处理器112在一些实施例中可以是中央处理器(centralprocessingunit,cpu)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器112通常用于控制所述计算机设备11的总体操作。本实施例中,所述处理器112用于运行所述存储器111中存储的程序代码或者处理数据,例如运行所述终端交互方法的程序代码。所述网络接口113可包括无线网络接口或有线网络接口,该网络接口113通常用于在所述计算机设备11与其他电子设备之间建立通信连接。本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有终端交互程序,所述终端交互程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的终端交互方法的步骤。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的
技术领域
,均同理在本申请专利保护范围之内。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1