活体检测方法、装置、存储介质与电子设备与流程

文档序号:30380561发布日期:2022-06-11 03:44阅读:167来源:国知局
活体检测方法、装置、存储介质与电子设备与流程

1.本公开涉及计算机视觉技术领域,尤其涉及一种活体检测方法、活体检测装置、计算机可读存储介质与电子设备。


背景技术:

2.生物识别技术尤其是人脸识别在近年来获得了巨大的发展与进步,比如手机解锁或刷脸支付等。但是人脸识别系统面临使用伪装用户人脸进行攻击的风险,如果用户人脸图像被窃取,系统非常容易受到照片或者视频攻击。
3.活体检测可以对摄像头获取的人脸图像进行判断,确定该人脸是真实用户的人脸信息,还是伪装出来的用户人脸,例如用手机拍摄的人脸,纸张打印的人脸,或者3d硅胶人脸面具。因此针对活体检测的研究越来越成为人脸识别中重要的研究任务,对活体检测安全性也有更高的要求。


技术实现要素:

4.本公开提供了一种活体检测方法、活体检测装置、计算机可读存储介质与电子设备,进而至少在一定程度上改善活体检测的安全性。
5.根据本公开的第一方面,提供一种活体检测方法,包括:显示一参考点;通过提示信息引导待检测用户注视所述参考点,并执行预设动作的过程中,采集多张图像;确定每张所述图像中所述待检测用户的头部姿态信息和注视点信息;确定多张所述图像中所述待检测用户的注视点信息满足第一预设条件,且所述待检测用户的头部姿态信息满足第二预设条件,则所述待检测用户通过活体检测。
6.根据本公开的第二方面,提供一种活体检测装置,所述装置包括:显示模块,用于显示一参考点;图像采集模块,用于通过提示信息引导待检测用户注视所述参考点,并执行预设动作的过程中,采集多张图像;信息确定模块,用于确定每张所述图像中所述待检测用户的头部姿态信息和注视点信息;检测模块,用于确定多张所述图像中所述待检测用户的注视点信息满足第一预设条件,且所述待检测用户的头部姿态信息满足第二预设条件,则所述待检测用户通过活体检测。
7.根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面的活体检测方法及其可能的实施方式。
8.根据本公开的第四方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述第一方面的活体检测方法及其可能的实施方式。
9.本公开的技术方案具有以下有益效果:
10.通过提供一参考点,并引导待检测用户注视参考点,可以获取到待检测用户的注视点信息;通过引导待检测用户执行预设动作,可以获取到待检测用户的头部姿态信息,由于执行预设动作的过程中,待检测用户一直注视着参考点,因此所采集的图像结合了头部
姿态信息和注视点信息,提高了活体检测的精度和准确度,使得活体检测的安全性更高。
11.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
12.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施方式,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
13.图1示出本示例性实施方式中一种活体检测方法及装置的示例性应用环境的系统架构的示意图;
14.图2示出本示例性实施方式中一种电子设备的计算机系统的结构示意图;
15.图3示出本示例性实施方式中活体检测方法的流程图;
16.图4示出本示例性实施方式活体检测方法中的参考坐标系的示意图;
17.图5示出本示例性实施方式中的一种活体检测过程的流程示意图;
18.图6示出本示例性实施方式的一种活体检测装置的结构示意图一;
19.图7示出本示例性实施方式的一种活体检测装置的结构示意图二。
具体实施方式
20.现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
21.此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
22.附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”仅是为了区分的目的,不应作为本公开内容的限制。
23.图1示出了可以应用本公开实施例的一种活体检测方法及装置的示例性应用环境的系统架构的示意图。
24.如图1所示,系统架构100可以包括终端设备101、102中的一个或多个,网络103和
服务器104。网络103用以在终端设备101、102和服务器104之间提供通信链路的介质。终端设备101、102可以是具有显示屏的各种电子设备,终端设备101、102的显示屏上可以呈现图像采集过程,终端设备101、102还需要具备采集图像的摄像头。
25.终端设备101、102包括但不限于便携式计算机、智能手机、平板电脑、ar(augmented reality,增强现实)眼镜、ar头盔等具有图像或视频采集功能的设备。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器104可以是多个服务器组成的服务器集群等。
26.在实现空间装饰效果图的显示过程中,终端设备101、102可以进行图像采集,以供服务器104进行活体检测。
27.下面描述的活体检测方法的各个步骤可以应用于服务器104,也可以应用于终端设备101、102,直接由终端设备101、102对待检测用户进行活体检测。
28.图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。本公开示例性实施方式中终端设备101、102和服务器104中至少服务器104可以被配置为图2的形式。需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
29.如图2所示,计算机系统200包括中央处理单元(cpu)201,其可以根据存储在只读存储器(rom)202中的程序或者从存储部分208加载到随机访问存储器(ram)203中的程序而执行各种适当的动作和处理。在ram203中,还存储有系统操作所需的各种程序和数据。cpu201、rom202以及ram203通过总线204彼此相连。输入/输出(i/o)接口205也连接至总线204。
30.以下部件连接至i/o接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(crt)、液晶显示器(lcd)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如lan卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至i/o接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
31.特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(cpu)201执行时,执行本技术的方法和装置中限定的各种功能。在一些实施例中,计算机系统200还可以包括ai(artificial intelligence,人工智能)处理器,该ai处理器用于处理有关机器学习的计算操作。
32.就本公开所述的活体检测方案而言,终端设备101、102在获取到待检测用户的图像信息后传递给服务器104的中央处理单元(cpu)201,中央处理单元(cpu)201可以利用图像中的人脸信息,并结合预先构建的模型,确定终端设备101、102所采集的待检测用户是否是活体。
33.现有的活体检测,主要是通过眨眼、张嘴、摇头、点头等组合动作,使用人脸关键点定位和人脸追踪等技术,验证待检测用户是否为真实活体本人操作。但单一的依赖上述动
作进行活体检测,检测的精度和安全性不足。
34.基于此,本公开实施例提供了一种活体检测方法,以下将对本公开实施例的技术方案进行详细阐述:
35.本示例性实施方式中所提供的活体检测方法,通过将头部姿态信息和视线信息进行结合对待检测用户进行检测,检测的精度和安全性更高。
36.下面结合图3对本公开示例性实施方式的活体检测方法进行具体说明。如图3所示,该活体检测方法可以包括:
37.步骤s310,显示一参考点;
38.步骤s320,通过提示信息引导待检测用户注视参考点,并执行预设动作的过程中,采集多张图像;
39.步骤s330,确定每张图像中待检测用户的头部姿态信息和注视点信息;
40.步骤s340,确定多张图像中待检测用户的注视点信息满足第一预设条件,且待检测用户的头部姿态信息满足第二预设条件,则待检测用户通过活体检测。
41.该活体检测方法实现了以下技术效果:通过提供一参考点,并引导待检测用户注视参考点,可以获取到待检测用户的注视点信息;通过引导待检测用户执行预设动作,可以获取到待检测用户的头部姿态信息,由于执行预设动作的过程中,待检测用户一直注视着参考点,因此所采集的图像结合了头部姿态信息和注视点信息,提高了活体检测的精度和准确度,使得活体检测的安全性更高。
42.下面分别对每个步骤的实现过程进行具体说明:
43.在步骤s310中,显示一参考点。
44.本公开实施例提供的活体检测方法中,图像的采集是由终端设备101、102等检测设备实现的。在图像采集过程中,首先在检测设备上随机显示一参考点,例如,在检测设备存在屏幕时,该参考点可以为屏幕上随机出现的任意位置的点。这一参考点是被检测用户无法提前预知位置的点,以防止用户进行视频攻击。
45.在实际应用中,活体检测通常都与人脸识别一起进行,所以检测设备可以单指用于实现本公开实施例提供的活体检测方法的检测设备,也可以是指可以实现本公开实施例提供的活体检测方法和人脸检测的检测设备,例如手机、平板等。
46.参照图4,以手机为例,上述的参考点可以是手机屏幕上的任一点,通过在手机屏幕上建立坐标系,可以确定出参考点的坐标位置。例如,以手机的前置摄像头所在位置为坐标原点建立参考坐标系,基于参考坐标系就可以确定出参考点的坐标位置(x0,y0)。
47.在步骤s320中,通过提示信息引导待检测用户注视参考点,并执行预设动作的过程中,采集多张图像;
48.对于待检测用户而言,因为活体检测的目的在于判断待检测用户是否为活体,所以在未得到检测结果前,并不能确定待检测用户为活体,因此,在本公开实施例中,待检测用户并不特指是活体用户,也可能是用户的照片、用户的三维模型等物体。其中,活体用户指的是真实在进行活体检测的人,用户的照片和视频等都不属于活体用户。
49.本公开示例性实施方式中,为了获得待检测用户的注视点信息,需要通过提示信息来引导待检测用户在执行预设动作的过程中,一直注视着参考点。
50.在实际应用中,预设动作可以根据实际情况来确定,例如,预设动作可以是头部的
转动动作,即可以是向左转动头部,也可以是向右转动头部,也可以是向上转动头部,还可以是向下转动头部。
51.基于上述的预设动作,提示信息可以是“注视参考点,向左转动头部”,也可以是“注视参考点,向右转动头部”,还可以是“注视参考点,向上转动头部”,也可以是“注视参考点,向右转动头部”等,提示信息根据预设动作来定,本公开示例性实施方式对此不作特殊限定。
52.需要说明的是,在待检测用户按照提示信息执行预设动作的过程中,可以通过检测设备的前置摄像头来采集图像,所采集的主要是待检测用户的头部信息,包括脸部信息和头部的转动信息。
53.在实际应用中,连续采集多张图像过程中,可以按照预设速率进行采集。其中,预设速率的大小可以根据实际情况设定,例如,预设速率可以是每100毫秒采集1帧图像,相当于在1秒内连续采集10张图像,预设速率也可以是其他大小,本公开示例性实施方式对此不作特殊限定。
54.需要说明的是,本公开示例性实施方式中,除过采集上述连续的多张图像之外,在通过提示信息引导待检测用户执行预设动作之前,还可以在屏幕上随机显示参考点之后,只引导待检测用户注视参考点。在未转动头部之前,可以指示待检测用户正面对着参考坐标系所在的平面,即正对屏幕。此时采集的初始图像中的注视点可以作为活体检测的初步判断。
55.具体判断过程为:注视点(x,y)与参考点(x0,y0)的距离l小于预设阈值时,初步判断待检测用户为活体。上述的距离可以直接由欧氏距离进行计算得到,也可以是其他计算方法,此处不作限定。需要说明的是,只有在初步判断待检测用户为活体之后,才引导待检测用户执行预设动作。如果初步判断没有通过,则可以判断该待检测用户为非活体,不再进行后续动作。
56.本公开示例性实施方式中,确定注视点与参考点的距离可以包括:先选取参考坐标系,再确定注视点与参考点在参考坐标系中的坐标,最后,根据上述两个坐标来确定注视点与参考点的距离。
57.在实际应用中,预设阈值的大小可以根据实际情况来确定,在所计算的距离为欧式距离的情况下,所述预设阈值可以为1-2cm中的任一值,例如,1.5cm等,本公开示例性实施方式对于预设阈值的大小不作特殊限定。
58.在待检测用户按照提示信息完成预设动作,并采集了多张图像之后,可以进入步骤s330,确定每张图像中待检测用户的头部姿态信息和注视点信息。
59.在注视点信息确定过程中,可以先将图像输入到人脸检测网络模型中,通过对人脸检测网络模型进行训练,得到人脸框和眼睛关键点的坐标信息,根据坐标信息就可以把眼睛区域图像提取出来。其中,人脸检测网络模型是一个基于深度学习的神经网络模型。该模型的输入是480*480分辨率的图像,输出是人脸框左上角和右下角的坐标、左眼框左上角和右下角的坐标、右眼框左上角和右下角的坐标,从而可以从图像中取出人脸框图像、左眼眶图像和右眼眶图像,三个图像一起作为所述眼睛区域图像。
60.本公开示例性实施方式中,通过人脸检测网络模型输出上述信息之后,可以先确定出左眼眶中心点的坐标及右眼眶中心点的坐标,然后,将人脸框图像、左眼眶图像、右眼
眶图像、左眼眶中心点的坐标及右眼眶中心点的坐标输入到基于深度学习的视线估计模型中,以获得待检测用户的注视点坐标(x,y)。
61.在实际应用中,还可以根据视线估计模型对分辨率的要求调整人脸框图像、左眼眶图像和右眼眶图像分辨率的大小,即调整眼睛区域图像的分辨率。例如,将分辨率从480*480分辨率,降低到96*96分辨率等。所需输入的图像分辨率的大小由所要输入的模型决定,例如,视线估计模型所需要的分辨率是96*96,输入该视线估计模型的人脸框图像的分辨率就需要是96*96。
62.在实际应用中,可以采用双线性插值法等方法来调整人脸框图像的分辨率,此处不再赘述。
63.本公开示例性实施方式中,需要将人脸框图像、左眼眶图像、右眼眶图像、左眼眶中心点的坐标及右眼眶中心点的坐标均输入到基于深度学习的视线估计模型中,该视线估计模型就会输出所预测的待检测用户的注视点坐标(x,y)。每张图像都需要确定出待检测用户的注视点坐标(x,y)。
64.在实际应用中,左眼眶中心点的坐标是由左眼眶的左上角坐标和右下角坐标取平均获得的;右眼眶中心点的坐标是由右眼眶的左上角坐标和右下角坐标取平均获得的。需要说明的是,上述中心点还可以有其它的获得方式,本公开示例性实施方式并不以此为限。
65.在实际应用中,视线估计模型可以是基于mobilenet网络结构获得的。用于视线估计模型训练的损失函数是|x-x0|+|y-y0|。通过采集大量的注视数据作为样本完成对视线估计模型的训练。此处对于具体的训练过程不作赘述。
66.本公开示例性实施方式中,在头部姿态确定过程中,是将图像输入到头部姿态检查网络中,通过该头部姿态检查网络,就可以输出头部姿态的俯仰角和偏航角。其中,俯仰角对应的是待检测用户向上转动或向下转动,偏航角对应的是待检测用户向左转动或向右转动。
67.在实际应用中,头部姿态检查网络是一个基于深度学习的神经网络模型,对于头部姿态检查网络的具体训练过程,此处不作赘述。
68.在步骤s340中,确定多张图像中待检测用户的注视点满足第一预设条件,且待检测用户的头部姿态满足第二预设条件,则待检测用户通过活体检测。
69.本公开示例性实施方式中,第一预设条件指的是在连续采集的多张图像中,至少有第一预设比例的图像中的注视点和参考点的距离小于预设阈值。其中,距离的计算方法以及预设阈值的大小已经在上述实施方式中进行了阐述,此处不再赘述。
70.在实际应用中,第一预设比例可以根据实际情况来确定,例如,10张图像中有7张图像的待检测用户的注视点满足第一预设条件,那么第一预设比例就是70%。本公开示例性实施方式中,第一预设比例可以是70%-90%中的任一值。
71.本公开示例性实施方式中,第二预设条件指的是在连续采集的多张图像中,至少有第二预设比例的图像中的头部偏航角或头部俯仰角连续变化。例如,对于待检测用户向左转动的多张图像而言,其头部偏航角逐渐增大;对于待检测用户向右转动的多张图像而言,其头部偏航角逐渐减小;对于待检测用户向上转动的多张图像而言,其头部俯仰角逐渐增大;对于待检测用户向下转动的多张图像而言,其头部俯仰角逐渐减小。
72.在实际应用中,第二预设比例可以根据实际情况来确定,例如,10张图像中有6张
图像的待检测用户的头部偏航角或头部俯仰角满足第二预设条件,那么第二预设比例就是60%。本公开示例性实施方式中,第二预设比例可以是60%-80%中的任一值
73.在多张图像中,如果至少有第一预设比例的图像中的注视点与参考点的距离小于预设阈值,并且至少有第二预设比例的图像中的头部偏航角或头部俯仰角连续变化,则说明通过活体检测。举例而言,如果10张图像中,至少有7张图像的注视点与参考点的距离小于1.5cm,且至少有6张图像的头部偏航角逐渐增大,则该待检测用户通过活体检测。
74.本公开示例性实施方式中,在活体检测之前,也就是在步骤s310显示一参考点之前,对视线估计模型进行校正,以提高对注视点预测的精度。
75.具体的校正过程可以包括:在不同的预设位置顺次显示至少两个校正点,相当于在屏幕上先后显示两个校正点;再引导待检测用户顺次注视这至少两个校正点,获取每个校正点对应的注视点;根据校正点及对应的注视点之间的距离,可以确定出校正距离。在后面的注视点信息确定过程中,可以使用校正距离对参考点与注视点之间的距离进行校正。从而可以提高视线估计模型预测的精度。
76.参照图5,示出了本示例性实施方式的一种活体检测过程的流程示意图;如图5所示,步骤s510,显示一参考点;步骤s520,引导用户正面注视参考点;步骤s530,采集初始图像;步骤s540,进入判断条件1,判断注视点与参考点的距离是否小于预设阈值;如果否,则结束;如果是,则进入步骤s550,引导用户执行预设动作;步骤s560,采集多张图像;步骤s570,获取注视点信息;进入步骤s580,即判断条件2,判断注视点信息是否满足第一预设条件;如果是,则进入步骤s590,即判断条件3,判断头部姿态信息是否满足第二预设条件;是,则通过活体检测;否,则结束。
77.综上所述,本示例性实施方式提供的一种活体检测方法,通过将头部姿态信息和注视点信息相结合来进行活体检测,能够很好地抵抗照片或视频的攻击,提高了活体检测的准确性和安全性。
78.应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
79.本公开的示例性实施方式还提供一种活体检测装置。如图6所示,该活体检测装置600可以包括:
80.显示模块610,用于显示一参考点;
81.图像采集模块620,用于通过提示信息引导待检测用户注视参考点,并执行预设动作的过程中,采集多张图像;
82.信息确定模块630,用于确定每张图像中待检测用户的头部姿态信息和注视点信息;
83.检测模块640,用于确定多张图像中待检测用户的注视点信息满足第一预设条件,且待检测用户的头部姿态信息满足第二预设条件,则待检测用户通过活体检测。
84.在本公开的一种示例性实施方式中,检测模块640被配置为用于,至少第一预设比例的所述图像中,注视点与所述参考点的距离小于预设阈值。
85.在本公开的一种示例性实施方式中,检测模块640被配置为用于,选取参考坐标
系;确定所述注视点与所述参考点在所述参考坐标系中的坐标;根据所述坐标,确定所述距离。
86.在本公开的一种示例性实施方式中,图像采集模块620被配置为用于,指示所述待检测用户正面对着所述参考坐标系所在的平面。
87.在本公开的一种示例性实施方式中,图像采集模块620被配置为用于,在所述待检测用户执行所述预设动作之前,采集所述待检测用户正面注视所述参考点的初始图像;确定所述初始图像中所述待检测用户的注视点与所述参考点的距离小于预设阈值,再引导所述待检测用户执行所述预设动作。
88.在本公开的一种示例性实施方式中,检测模块640被配置为用于,至少第二预设比例的所述图像中的头部偏航角或头部俯仰角连续变化。
89.在本公开的一种示例性实施方式中,信息确定模块630被配置为用于,将所述图像输入到人脸检测网络模型中,确定出人脸框图像、左眼眶图像、右眼眶图像、左眼眶中心点的坐标及右眼眶中心点的坐标;将所述人脸框图像、所述左眼眶图像、所述右眼眶图像、所述左眼眶中心点的坐标及所述右眼眶中心点的坐标输入到视线估计模型中,输出所述注视点的坐标。
90.在本公开的一种示例性实施方式中,信息确定模块630被配置为用于,将所述图像输入到头部姿态检查网络中,输出所述头部姿态的俯仰角和偏航角。
91.参照图7,在本公开的一种示例性实施方式中,还包括:校正模块650,用于在不同的预设位置顺次显示至少两个校正点;引导所述待检测用户顺次注视至少两个所述校正点,获取每个所述校正点对应的注视点;根据所述校正点及对应的所述注视点之间的距离,确定校正距离。
92.上述装置中各部分的具体细节在方法部分实施方式中已经详细说明,因而不再赘述。
93.应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
94.需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于
由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、rf等等,或者上述的任意合适的组合。
95.附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
96.作为另一方面,本技术还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
97.本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
98.应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限定。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1