人脸图像的处理方法、装置、计算机可读介质及设备与流程

文档序号:29204737发布日期:2022-03-11 22:28阅读:187来源:国知局
人脸图像的处理方法、装置、计算机可读介质及设备与流程

1.本技术涉及计算机及通信技术领域,具体而言,涉及一种人脸图像的处理方法、装置、计算机可读介质及设备。


背景技术:

2.人脸识别支付是基于脸部识别系统的支付技术,该技术不需要钱包、信用卡或手机,支付时只需要面对支付设备上的摄像头,在摄像头采集消费者的面部信息之后,系统会自动将消费者面部信息与个人账户相关联,整个交易过程十分便捷。然而如何能够提高人脸识别的精度,且降低支付设备的功耗是亟待解决的技术问题。


技术实现要素:

3.本技术的实施例提供了一种人脸图像的处理方法、装置、计算机可读介质及设备,进而至少在一定程度上可以实现低功耗的人脸识别,并且可以提高人脸识别的精度和准确性。
4.本技术的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本技术的实践而习得。
5.根据本技术实施例的一个方面,提供了一种人脸图像的处理方法,包括:获取dtof(direct time-of-flight,直接飞行时间)传感器以不同的采集角度对目标人脸进行深度图像采集得到的多张点阵深度图像;将所述多张点阵深度图像进行融合处理,得到密集点阵深度图像;对所述密集点阵深度图像进行人脸识别处理,得到人脸识别结果。
6.根据本技术实施例的一个方面,提供了一种人脸图像的处理装置,包括:获取单元,配置为获取dtof传感器以不同的采集角度对目标人脸进行深度图像采集得到的多张点阵深度图像;融合单元,配置为将所述多张点阵深度图像进行融合处理,得到密集点阵深度图像;识别单元,配置为对所述密集点阵深度图像进行人脸识别处理,得到人脸识别结果。
7.在本技术的一些实施例中,基于前述方案,所述dtof传感器与微电机相连接;所述获取单元配置为:控制所述微电机带动所述dtof传感器转动,并获取所述dtof在所述微电机带动下针对所述目标人脸采集到的多张点阵深度图像。
8.在本技术的一些实施例中,基于前述方案,所述融合单元包括:处理单元,配置为将所述多张点阵深度图像转换为对应的点云图像,并对所述点云图像进行融合处理得到密集点云图;转换单元,配置为将所述密集点云图转换成所述密集点阵深度图像。
9.在本技术的一些实施例中,基于前述方案,所述处理单元配置为:通过多个抽样尺度对每张点阵深度图像进行抽样处理,得到每张点阵深度图像对应的多个抽样图像;将每张点阵深度图像对应的多个抽样图像分别转换为点云图像,得到每张点阵深度图像对应的多个点云图像,所述多个点云图像中包含有第一分辨率的点云图像和第二分辨率的点云图像,所述第一分辨率大于所述第二分辨率;对所述多张点阵深度图像分别对应的第二分辨率的点云图像进行配准,得到配准结果;基于所述配准结果对所述多张点阵深度图像分别
对应的第一分辨率的点云图像进行融合处理,得到所述密集点云图。
10.在本技术的一些实施例中,基于前述方案,所述处理单元配置为:基于点阵深度图像与点云坐标之间的转换关系,将所述每张点阵深度图像对应的多个抽样图像分别转换为点云图像。
11.在本技术的一些实施例中,基于前述方案,所述处理单元配置为:对所述多张点阵深度图像分别对应的第二分辨率的点云图像进行匹配点的计算处理,得到所述多张点阵深度图像对应的匹配点;根据所述匹配点对所述多张点阵深度图像分别对应的第二分辨率的点云图像进行配准。
12.在本技术的一些实施例中,基于前述方案,所述处理单元配置为:对于任意两张点阵深度图像分别对应的第二分辨率的点云图像,通过投影算法计算其中一个点云图像上的点在另一个点云图像上的投影点,得到所述任意两张点阵深度图像之间的匹配点;根据所述任意两张点阵深度图像之间的匹配点,确定所述多张点阵深度图像对应的匹配点。
13.在本技术的一些实施例中,基于前述方案,所述处理单元配置为:基于所述匹配点计算所述多张点阵深度图像之间的位姿;基于所述位姿对所述多张点阵深度图像分别对应的第一分辨率的点云图像进行融合处理。
14.在本技术的一些实施例中,基于前述方案,所述处理单元配置为:基于任意两张点阵深度图像之间的匹配点,计算所述任意两张点阵深度图像之间的位姿;根据所述任意两张点阵深度图像之间的位姿,计算所述多张点阵深度图像之间的位姿。
15.在本技术的一些实施例中,基于前述方案,所述处理单元配置为:通过两个抽样尺度对每张点阵深度图像进行抽样处理,得到每张点阵深度图像对应的第一分辨率的抽样图像和第二分辨率的抽样图像,所述第一分辨率小于或等于所述每张点阵深度图像的分辨率。
16.在本技术的一些实施例中,基于前述方案,所述人脸图像的处理装置还包括:支付单元,配置为在得到所述人脸识别结果之后,基于所述人脸识别结果进行人脸支付处理。
17.根据本技术实施例的一个方面,提供了一种基于人脸的支付设备,包括:dtof传感器,用于采集人脸的点阵深度图像;微电机,与所述dtof传感器相连接,用于带动所述dtof传感器转动,以通过不同的角度采集人脸的点阵深度图像;处理器,与所述dtof传感器电连接,所述处理器用于接收所述dtof传感器采集到的点阵深度图像,并配置为执行如上述实施例中所述的人脸图像的处理方法。
18.根据本技术实施例的一个方面,提供了一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述实施例中所述的人脸图像的处理方法。
19.根据本技术实施例的一个方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中所述的人脸图像的处理方法。
20.根据本技术实施例的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各种可选实施例中提供的人脸图像的处理方法。
21.在本技术的一些实施例所提供的技术方案中,通过获取dtof传感器以不同的采集
角度对目标人脸进行深度图像采集得到的多张点阵深度图像,然后将这多张点阵深度图像进行融合处理得到密集点阵深度图像,以基于该密集点阵深度图像进行人脸识别处理,使得能够通过dtof传感器实现低功耗人脸识别,同时由于将dtof传感器采集到的多张点阵深度图像进行了融合处理得到密集点阵深度图像,因此也可以通过该密集点阵深度图像实现高精度的人脸识别,提高了人脸识别的准确性。
22.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本技术。
附图说明
23.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理。显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
24.图1示出了可以应用本技术实施例的技术方案的示例性系统架构的示意图;
25.图2示出了根据本技术的一个实施例的人脸图像的处理方法的流程图;
26.图3示出了根据本技术的一个实施例的将多张点阵深度图像转换为对应的点云图像,并对点云图像进行融合处理得到密集点云图的流程图;
27.图4示出了根据本技术的一个实施例的人脸识别方法的流程图;
28.图5示出了根据本技术的一个实施例的将多张稀疏点阵深度图合称为一张密集点阵深度图的流程图;
29.图6示出了相机坐标系与图像坐标系的转换关系示意图;
30.图7示出了根据本技术的一个实施例的将多张稀疏点阵深度图合成为一张密集点阵深度图的流程图;
31.图8示出了根据本技术的一个实施例的人脸图像的处理装置的框图;
32.图9示出了适于用来实现本技术实施例的电子设备的计算机系统的结构示意图。
具体实施方式
33.现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本技术将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
34.此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本技术的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本技术的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本技术的各方面。
35.附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
36.附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也
不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
37.需要说明的是:在本文中提及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
38.人工智能(artificial intelligence,简称ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
39.人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
40.计算机视觉技术(computer vision,简称cv)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、ocr(optical character recognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3d技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
41.本技术实施例提供的方案涉及人工智能的计算机视觉等技术,具体通过如下实施例进行说明:
42.在本技术的实施例中,在采集人脸图像进行识别时,可以采用dtof深度图技术,dtof深度图技术是直接测量飞行时间,再通过飞行时间换算深度的技术。或者也可以采用结构光深度图技术,结构光深度图技术是通过编码结构光,基于标定、投射采集、解码计算等关键步骤实现深度图计算的技术。当然也可以采用itof(indirect time-of-flight,间接飞行时间)深度图技术,itof深度图技术是通过测量相位偏移来间接测量光的飞行时间,再通过飞行时间换算深度的技术。然而结构光深度图技术相比于dtof深度图技术的成本高、且可集成度低、远距离精度低;而itof深度图技术相比于dtof深度图技术的精度较低,且功耗较大。因此,为了降低人脸识别过程中的功耗,并且提高人脸识别的精度,本技术的以下实施例中以dtof深度图技术为例进行详细阐述:
43.如图1所示,在本技术的一个示例性系统架构100中,可以包括支付终端101、网络102和支付处理服务器103。网络102用以在支付终端101和支付处理服务器103之间提供通信链路的介质,网络102可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
44.应该理解,图1中的支付终端101、网络102和支付处理服务器103的数目仅仅是示意性的。支付处理服务器103可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络
服务、云通信、中间件服务、域名服务、安全服务、cdn、以及大数据和人工智能平台等基础云计算服务的云服务器。支付终端101可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。
45.在本技术的一个实施例中,支付终端101上设置有dtof传感器,dtof传感器与微型电机连接,微型电机可以带动dtof传感器转动,以通过不同的角度采集人脸的点阵深度图像。在需要进行人脸支付时,支付终端101上可以显示人脸支付的提示信息,然后由微型电机带动dtof传感器转动来采集人脸的多张点阵深度图像,在采集人脸的多张点阵深度图像之后,支付终端101可以将这多张点阵深度图像通过网络102发送给支付处理服务器103,然后支付处理服务器103将这多张点阵深度图像进行融合处理,得到密集点阵深度图像,进而对得到的密集点阵深度图像进行人脸识别处理,得到人脸识别结果。在得到人脸识别结果之后,支付处理服务器103可以基于识别到的人脸进行支付处理。可见,本技术实施例中通过将dtof传感器采集到的多张点阵深度图像进行了融合处理得到密集点阵深度图像,因此可以通过该密集点阵深度图像实现高精度的人脸识别,提高了人脸识别的准确性,并且也可以降低人脸识别的功耗。
46.需要说明的是,本技术实施例所提供的人脸图像的处理方法一般由支付处理服务器103执行,相应地,人脸图像的处理装置一般设置于支付处理服务器103中。但是,在本技术的其它实施例中,支付设备也可以与支付处理服务器具有相似的功能,从而执行本技术实施例所提供的人脸图像的处理方案。比如在采集人脸的多张点阵深度图像之后,支付终端101可以将这多张点阵深度图像进行融合处理,得到密集点阵深度图像,进而对得到的密集点阵深度图像进行人脸识别处理,得到人脸识别结果。在得到人脸识别结果之后,支付终端101可以将人脸识别结果发送给支付处理服务器103,进而支付处理服务器103可以基于该人脸识别结果进行支付处理。
47.以下对本技术实施例的技术方案的实现细节进行详细阐述:
48.图2示出了根据本技术的一个实施例的人脸图像的处理方法的流程图,该人脸图像的处理方法可以由具有计算处理功能的设备来执行,比如可以由图1中所示的支付处理服务器103来执行。参照图2所示,该人脸图像的处理方法至少包括步骤s210至步骤s230,详细介绍如下:
49.在步骤s210中,获取dtof传感器以不同的采集角度对目标人脸进行深度图像采集得到的多张点阵深度图像。
50.在本技术的一个实施例中,dtof传感器以不同的采集角度对目标人脸进行深度图像采集时,可以是人脸保持不动,然后控制dtof传感器转动来采集得到的,或者可以是dtof传感器保持不动,提示用户移动人脸来采集得到的,也可以是dtof传感器和人脸都移动来采集得到的。
51.可选地,在实现dtof传感器转动时,可以通过微型电机带动dtof传感器转动,这种方式可以实现dtof传感器轻微转动来通过不同的采集角度对目标人脸进行深度图像采集。当然,也可以通过其他传动机构带动dtof传感器转动来实现对人脸深度图像的采集。在提示用户移动人脸来采集深度图像时,可以在显示面板上显示提示信息,或者通过扬声器设备发出语音提示信息的方式来提示用户移动人脸。
52.在步骤s220中,将dtof传感器采集到的多张点阵深度图像进行融合处理,得到密
集点阵深度图像。
53.在本技术的一个实施例中,将多张点阵深度图像进行融合处理的过程可以是将多张点阵深度图像转换为对应的点云图像,然后对转换得到的点云图像进行融合处理得到密集点云图,进而将密集点云图再转换为密集点阵深度图像。
54.在本技术的一个实施例中,如图3所示,将多张点阵深度图像转换为对应的点云图像,并对点云图像进行融合处理得到密集点云图的过程可以包括如下步骤s310至步骤s340:
55.在步骤s310中,通过多个抽样尺度对每张点阵深度图像进行抽样处理,得到每张点阵深度图像对应的多个抽样图像。
56.在本技术的一个实施例中,可以通过两个抽样尺度对每张点阵深度图像进行抽样处理,得到每张点阵深度图像对应的第一分辨率的抽样图像和第二分辨率的抽样图像,其中,第一分辨率大于第二分辨率,且第一分辨率小于或等于每张点阵深度图像的分辨率。可选地,第一分辨率可以等于每张点阵深度图像的分辨率。在本技术的其它实施例中,也可以通过三个抽样尺度或者更多个抽样尺度对每张点阵深度图像进行抽样处理。
57.在步骤s320中,将每张点阵深度图像对应的多个抽样图像分别转换为点云图像,得到每张点阵深度图像对应的多个点云图像,该多个点云图像中包含有第一分辨率的点云图像和第二分辨率的点云图像,该第一分辨率大于第二分辨率。
58.在本技术的一个实施例中,由于点阵深度图像与点云坐标之间存在对应关系,因此可以基于点阵深度图像与点云坐标之间的转换关系,将每张点阵深度图像对应的多个抽样图像分别转换为点云图像。
59.在步骤s330中,对多张点阵深度图像分别对应的第二分辨率的点云图像进行配准,得到配准结果。
60.在本技术的一个实施例中,可以对多张点阵深度图像分别对应的第二分辨率的点云图像进行匹配点的计算处理,得到多张点阵深度图像对应的匹配点,然后根据得到的匹配点对多张点阵深度图像分别对应的第二分辨率的点云图像进行配准。
61.在本技术的一个实施例中,在计算多张点阵深度图像对应的匹配点时,可以将两个点阵深度图像为一组进行计算,然后再综合起来确定多张点阵图像对应的匹配点。具体而言,对于任意两张点阵深度图像分别对应的第二分辨率的点云图像,可以通过投影算法计算其中一个点云图像上的点在另一个点云图像上的投影点,得到这两张点阵深度图像之间的匹配点,然后根据这两张点阵深度图像之间的匹配点,确定多张点阵深度图像对应的匹配点。
62.继续参照图3所示,在步骤s340中,基于配准结果对多张点阵深度图像分别对应的第一分辨率的点云图像进行融合处理,得到密集点云图。
63.在本技术的一个实施例中,在基于配准结果对多张点阵深度图像分别对应的第一分辨率的点云图像进行融合处理时,可以基于匹配点计算多张点阵深度图像之间的位姿,然后基于计算得到的多张点阵深度图像之间的位姿对多张点阵深度图像分别对应的第一分辨率的点云图像进行融合处理。可选地,在计算多张点阵深度图像之间的位姿时,可以将点阵深度图像分为两张一组进行计算,即根据每组中的两张点阵深度图像之间的匹配点计算这两张点阵深度图像之间的位姿,然后基于每组中的两张点阵深度图像之间的位姿,计
算多张点阵深度图像之间的位姿。
64.图3所示实施例的技术方案使得能够通过较低分辨率(即第二分辨率)的点云图像来进行配准,提高了图像配准的效率,然后基于配准结果对高分辨率(即第一分辨率)的点云图像进行融合处理,得到密集点云图,进而将密集点云图再转换为密集点阵深度图像,保证了得到的密集点阵深度图像具有较高的分辨率,有利于提高人脸识别的准确性。
65.继续参照图2所示,在步骤s230中,对融合处理得到的密集点阵深度图像进行人脸识别处理,得到人脸识别结果。
66.在本技术的一个实施例中,在得到人脸识别结果之后,可以基于人脸识别结果进行人脸支付处理。在这种情况下,本技术实施例中的基于人脸的支付设备,可以包括用于采集人脸的点阵深度图像的dtof传感器、与dtof传感器相连接的微电机,以及与dtof传感器电连接的处理器。其中,该微电机用于带动dtof传感器转动,以通过不同的角度采集人脸的点阵深度图像,该处理器用于接收dtof传感器采集到的点阵深度图像,并配置为通过上述实施例中所述的方法来进行人脸识别。进而使得能够通过dtof传感器实现低功耗人脸识别,同时由于将dtof传感器采集到的多张点阵深度图像进行了融合处理得到密集点阵深度图像,因此也可以通过该密集点阵深度图像实现高精度的人脸识别,提高了人脸识别的准确性。
67.以下结合图4至图7对本技术实施例的技术方案进行详细阐述:
68.图4示出了根据本技术的一个实施例的人脸识别方法的流程图,该人脸识别方法可以由具有计算处理功能的设备来执行。
69.参照图4所示,根据本技术的一个实施例的人脸识别方法,包括以下步骤s410至步骤s430:
70.在步骤s410中,使用微型电机转动dtof进行扫描,获得多张稀疏点阵深度图。该步骤中通过使用微型电机转动dtof进行扫描,使得能够在用户无感知的情况下实现多张稀疏点阵深度图的采集,不仅可以提升用户的体验,而且能够降低产品的成本,同时也能够保证通过多张稀疏点阵深度图来实现精准的人脸识别。
71.在步骤s420中,将多张稀疏点阵深度图合成为一张密集点阵深度图。
72.在本技术的一个实施例中,在将多张稀疏点阵深度图合称为一张密集点阵深度图时,可以采用如图5所示的流程,包括如下步骤s510至步骤s530,详细说明如下:
73.在步骤s510中,将稀疏点阵深度图转换成稀疏点云图。
74.在本技术的一个实施例中,可以通过深度图与点云图之间的坐标转换公式,将稀疏点阵深度图转换层稀疏点云图。
75.具体地,如图6所示,假设相机坐标系为o-xcyczc,图像坐标系为o
1-xy,将相机坐标系中的三维点m(xc,yc,zc)映射到图像坐标系中的点为m(x,y)。假设相机在x轴、y轴上的焦距分别为f
x
和fy,相机的光圈中心为c
x
和cy,那么根据三角形的相似原理可以得出如下公式(1):
[0076][0077]
实际上,相机的光圈中心并非是图像的中心,通常存在着偏差,比如对于一个相机对应的640
×
480分辨率的相机内参分别为c
x
=316.2,cy=235.7,f
x
=565.0,fy=566.3。因
此得出的相机坐标系与图像坐标系之间的坐标转换关系如下述公式(2)所示:
[0078][0079]
而相机坐标系中的点即为点阵深度图中的点,如果不考虑点云的深度坐标,那么图像坐标系中点的坐标即为点云中点的坐标,因此可以通过上述公式(2)来将稀疏点阵深度图转换成稀疏点云图。
[0080]
继续参照图5所示,在步骤s520中,将多张稀疏点云图合成为一张密集点云图。
[0081]
在本技术的一个实施例中,在将多张稀疏点云图合成为密集点云图时,可以将两张稀疏点云图作为一组来进行配准,比如可以通过投影算法来计算两张稀疏点云图之间的匹配点,然后基于匹配点来确定两张稀疏点云图之间的位姿变换,进而在得出位姿之后,可以基于位姿将多张稀疏点云图合成为一张密集点云图。
[0082]
在步骤s530中,将合成的密集点云图转换成密集点阵深度图。
[0083]
在本技术的一个实施例中,同样可以基于上述公式(2)将密集点云图反向转换为密集点阵深度图。
[0084]
图5所示实施例的技术方案是将稀疏点阵深度图转换成稀疏点云图,然后直接对稀疏点云图进行融合得到密集点云图,然后将密集点云图再转换得到密集点阵深度图。
[0085]
在本技术的一个实施例中,步骤s420中将多张稀疏点阵深度图合成为一张密集点阵深度图的过程还可以如图7所示,包括如下步骤:
[0086]
步骤s710,对两张稀疏点阵深度图进行2层抽样,得到每张稀疏点阵深度图对应的两个抽样图像。
[0087]
比如对于分辨率为640
×
480的点阵深度图,可以进行640
×
480分辨率的第一层抽样,以及320
×
240分辨率的第二层抽样。这样,每张稀疏点阵深度图都得到了两个抽样图像。
[0088]
步骤s720,将每张稀疏点阵深度图对应的两个抽样图像分别转换为点云图像,得到每张点阵深度图像对应的两个点云图像,并对点云图像进行滤波处理。
[0089]
在本技术的一个实施例中,可以基于上述公式(2)将每张稀疏点阵深度图对应的两个抽样图像分别转换为点云图像。
[0090]
步骤s730,计算低分辨率的两个点云图像之间的匹配点,并基于匹配点确定点云图像之间的位姿。
[0091]
在本技术的一个实施例中,比如对于分辨率为640
×
480的点阵深度图进行了640
×
480分辨率的第一层抽样,以及320
×
240分辨率的第二层抽样,那么可以通过320
×
240分辨率的抽样图像对应的点云图像来计算匹配点,进而基于匹配点来计算位姿。可选地,可以通过投影算法来计算点云图像之间的匹配点。
[0092]
步骤s740,基于确定的位姿对高分辨率的两个点云图像进行合成,得到密集点云图。
[0093]
在本技术的一个实施例中,比如对于分辨率为640
×
480的点阵深度图进行了640
×
480分辨率的第一层抽样,以及320
×
240分辨率的第二层抽样,那么在确定点云图像的位姿之后,可以对640
×
480分辨率的抽样图像对应的点云图像进行合成,得到密集点云图。
[0094]
步骤s750,将合成的密集点云图转换成密集点阵深度图。
[0095]
在本技术的一个实施例中,可以基于上述公式(2)将密集点云图反向转换为密集点阵深度图。
[0096]
继续参照图4所示,在步骤s430中,使用合成的密集点阵深度图进行人脸识别。
[0097]
在本技术的一个实施例中,在得到人脸识别结果之后,可以基于人脸识别结果进行人脸支付处理。可见,本技术实施例的技术方案使得能够通过dtof传感器实现低功耗人脸识别,同时由于将dtof传感器采集到的多张点阵深度图像进行了融合处理得到密集点阵深度图像,因此也可以通过该密集点阵深度图像实现高精度的人脸识别,提高了人脸识别的准确性。
[0098]
以下介绍本技术的装置实施例,可以用于执行本技术上述实施例中的人脸图像的处理方法。对于本技术装置实施例中未披露的细节,请参照本技术上述的人脸图像的处理方法的实施例。
[0099]
图8示出了根据本技术的一个实施例的人脸图像的处理装置的框图,该人脸图像的处理装置可以设置在具有计算处理功能的设备内,比如可以设置在图1中所示的支付处理服务器103内。
[0100]
参照图8所示,根据本技术的一个实施例的人脸图像的处理装置800,包括:获取单元802、融合单元804和识别单元806。
[0101]
其中,获取单元802配置为获取dtof传感器以不同的采集角度对目标人脸进行深度图像采集得到的多张点阵深度图像;融合单元804配置为将所述多张点阵深度图像进行融合处理,得到密集点阵深度图像;识别单元806配置为对所述密集点阵深度图像进行人脸识别处理,得到人脸识别结果。
[0102]
在本技术的一些实施例中,基于前述方案,所述dtof传感器与微电机相连接;获取单元802配置为:控制所述微电机带动所述dtof传感器转动,并获取所述dtof在所述微电机带动下针对所述目标人脸采集到的多张点阵深度图像。
[0103]
在本技术的一些实施例中,基于前述方案,融合单元804包括:处理单元,配置为将所述多张点阵深度图像转换为对应的点云图像,并对所述点云图像进行融合处理得到密集点云图;转换单元,配置为将所述密集点云图转换成所述密集点阵深度图像。
[0104]
在本技术的一些实施例中,基于前述方案,所述处理单元配置为:通过多个抽样尺度对每张点阵深度图像进行抽样处理,得到每张点阵深度图像对应的多个抽样图像;将每张点阵深度图像对应的多个抽样图像分别转换为点云图像,得到每张点阵深度图像对应的多个点云图像,所述多个点云图像中包含有第一分辨率的点云图像和第二分辨率的点云图像,所述第一分辨率大于所述第二分辨率;对所述多张点阵深度图像分别对应的第二分辨率的点云图像进行配准,得到配准结果;基于所述配准结果对所述多张点阵深度图像分别对应的第一分辨率的点云图像进行融合处理,得到所述密集点云图。
[0105]
在本技术的一些实施例中,基于前述方案,所述处理单元配置为:基于点阵深度图像与点云坐标之间的转换关系,将所述每张点阵深度图像对应的多个抽样图像分别转换为点云图像。
[0106]
在本技术的一些实施例中,基于前述方案,所述处理单元配置为:对所述多张点阵深度图像分别对应的第二分辨率的点云图像进行匹配点的计算处理,得到所述多张点阵深度图像对应的匹配点;根据所述匹配点对所述多张点阵深度图像分别对应的第二分辨率的
点云图像进行配准。
[0107]
在本技术的一些实施例中,基于前述方案,所述处理单元配置为:对于任意两张点阵深度图像分别对应的第二分辨率的点云图像,通过投影算法计算其中一个点云图像上的点在另一个点云图像上的投影点,得到所述任意两张点阵深度图像之间的匹配点;根据所述任意两张点阵深度图像之间的匹配点,确定所述多张点阵深度图像对应的匹配点。
[0108]
在本技术的一些实施例中,基于前述方案,所述处理单元配置为:基于所述匹配点计算所述多张点阵深度图像之间的位姿;基于所述位姿对所述多张点阵深度图像分别对应的第一分辨率的点云图像进行融合处理。
[0109]
在本技术的一些实施例中,基于前述方案,所述处理单元配置为:基于任意两张点阵深度图像之间的匹配点,计算所述任意两张点阵深度图像之间的位姿;根据所述任意两张点阵深度图像之间的位姿,计算所述多张点阵深度图像之间的位姿。
[0110]
在本技术的一些实施例中,基于前述方案,所述处理单元配置为:通过两个抽样尺度对每张点阵深度图像进行抽样处理,得到每张点阵深度图像对应的第一分辨率的抽样图像和第二分辨率的抽样图像,所述第一分辨率小于或等于所述每张点阵深度图像的分辨率。
[0111]
在本技术的一些实施例中,基于前述方案,所述人脸图像的处理装置800还包括:支付单元,配置为在得到所述人脸识别结果之后,基于所述人脸识别结果进行人脸支付处理。
[0112]
图9示出了适于用来实现本技术实施例的电子设备的计算机系统的结构示意图。
[0113]
需要说明的是,图9示出的电子设备的计算机系统900仅是一个示例,不应对本技术实施例的功能和使用范围带来任何限制。
[0114]
如图9所示,计算机系统900包括中央处理单元(central processing unit,cpu)901,其可以根据存储在只读存储器(read-only memory,rom)902中的程序或者从存储部分908加载到随机访问存储器(random access memory,ram)903中的程序而执行各种适当的动作和处理,例如执行上述实施例中所述的方法。在ram 903中,还存储有系统操作所需的各种程序和数据。cpu 901、rom 902以及ram 903通过总线904彼此相连。输入/输出(input/output,i/o)接口905也连接至总线904。
[0115]
以下部件连接至i/o接口905:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(cathode ray tube,crt)、液晶显示器(liquid crystal display,lcd)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如lan(local area network,局域网)卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至i/o接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
[0116]
特别地,根据本技术的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本技术的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的计算机程序。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被中央处理单元(cpu)901执行时,执行本技术的系统中限定
的各种功能。
[0117]
需要说明的是,本技术实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(erasable programmable read only memory,eprom)、闪存、光纤、便携式紧凑磁盘只读存储器(compact disc read-only memory,cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本技术中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本技术中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的计算机程序。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的计算机程序可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
[0118]
附图中的流程图和框图,图示了按照本技术各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。其中,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0119]
描述于本技术实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
[0120]
作为另一方面,本技术还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
[0121]
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本技术的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
[0122]
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本技术
实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本技术实施方式的方法。
[0123]
本领域技术人员在考虑说明书及实践这里公开的实施方式后,将容易想到本技术的其它实施方案。本技术旨在涵盖本技术的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本技术的一般性原理并包括本技术未公开的本技术领域中的公知常识或惯用技术手段。
[0124]
应当理解的是,本技术并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本技术的范围仅由所附的权利要求来限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1