低照度的人脸检测方法、装置、计算机设备及存储介质与流程

文档序号:30509722发布日期:2022-06-25 01:32阅读:172来源:国知局
低照度的人脸检测方法、装置、计算机设备及存储介质与流程

1.本发明涉及低照度的人脸检测方法,更具体地说是指低照度的人脸检测方法、装置、计算机设备及存储介质。


背景技术:

2.随着智能社会的发展,人脸识别技术已经运用于许多场景中,如小区的门禁系统、火车站的闸机入口、展会的安防系统等。通过人脸识别技术,不仅使人们享受其所带来的便利,同时也对人们的安全提供了保障。如在火车站这种公共场合,相较于传统的人工方式,利用人脸识别通过闸机,可以极大的提高通行效率。
3.人脸检测是人脸识别技术中一个重要环节,在进行人脸检测时,一般是通过拍摄图片进行检测,图片会受到光照度的影响,对于一些比较低光照度的图片若直接进行人脸检测,检测的准确率会大大降低。现有以下五种方式进行处理,第一种是采用otsu分割算法在低照度的情况下的自适应算法,实现了对低照度环境图像采集的自适应,通过处理前后的低照度人脸图像adaboost分类检测器验证。该算法中otsu算法进行语义分割需要设定阈值,对不同程度的低光照没有很好的兼容性,效果较差,其次adboost是弱分类器,往往会因为数据不平衡导致识别效果变差;第二种是通过对人脸视频图像的预处理,并基于adaboost人脸检测算法最终通过特征融合建模进行人脸识别,该算法基于传统机器学习模型进行人脸图片预处理,进行人为调参数,同时基于adboost进行人脸检测算法参数阈值的设定对检测效果不够精准;第三种是将光照变化对人脸识别造成的影响从预处理、特征提取记忆分类器进行了设计,利用粗粒度区划算法,结合光照变化信息将连续对比度值域区间进行划分,并提取lnmcp人脸特征,通过映入模糊隶属函数以及通过权重计算,识别人类识别率,但是该算法基于通过动态阈值对非线性进行划分层提取人脸特征,有人工设参的步骤参与,使得该算法模型不够鲁棒,对异常光线及人脸不同部位的反光的情况无法有好的适应效果;第四种是通过设定干扰区域的掩码,确定干扰区域的像素数目,以及其灰度值于阈值进行比较,找出超过阈值的像素点,然后判断图像中灰度超过阈值的像素点数目于干扰区域的像素点数目进行比较,若大于干扰区域小苏点数目则将图像灰度超过阈值的像素点于设定的掩膜模板进行掩膜处理来改变像素点的灰度值,但是该方法过多的依赖于人工挑选阈值参数的手法进行去反光处理,针对不同方向程度的反光没有很好的兼容性,且仅仅针对眼镜反光进行处理,没有考虑到其他光照皮肤漫反射等其他光照影响,使得该算法效果不够鲁棒;第五种是通过对像素点灰度值进行预处理,调节图像的阈值,通过计算图像像素点的临域矩阵将其进行无权重融合。基于中心线对称修改替换白斑区域的像素点的灰度值,最后对修改后的图像像素点集合进行均值归一化做人脸输出,但是该专利基于阈值进行对光照强度区域进行调整,无法适合不同光照条件的影响,算法对去反光效果不够稳定,往往因设定的阈值不够准确而导致识别效果变差。
4.因此,有必要设计一种新的方法,实现无需通过阈值调整进行超低光照度地人脸检测,可以针对不同程度的低光照度光线进行人脸检测;更好的预测不同尺度大小的人脸。


技术实现要素:

5.本发明的目的在于克服现有技术的缺陷,提供低照度的人脸检测方法、装置、计算机设备及存储介质。
6.为实现上述目的,本发明采用以下技术方案:低照度的人脸检测方法,包括:
7.获取待检测图像;
8.将所述待检测图像输入人脸检测模型内进行人脸检测,以得到检测结果;
9.输出所述检测结果;
10.其中,所述人脸检测模型通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型所得的。
11.其进一步技术方案为:所述人脸检测模型通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型所得的,包括:
12.获取若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对,以得到样本集;
13.将所述样本集输入对抗神经网络内进行处理,以得到处理结果;
14.将所述处理结果输入至深度学习网络内进行人脸目标框的检测,以得到目标框检测结果;
15.根据所述处理结果、目标框检测结果结合对应的损失函数进行对抗神经网络以及深度学习网络的参数调整,以得到人脸检测模型。
16.其进一步技术方案为:所述将所述样本集输入对抗神经网络内进行处理,以得到处理结果,包括:
17.采用对抗神经网络中的多个swin transformer块对所述样本集内的低光照度人脸图像进行特征提取;
18.对提取的特征对应的特征层进行融合处理,以提取感光信息,以得到处理结果。
19.其进一步技术方案为:所述对提取的特征对应的特征层进行融合处理,以提取感光信息,以得到处理结果,包括:
20.对提取的特征对应的第二个特征层进行上采样,并与第一个特征层进行原始特征直接拼接,以得到第一拼接结果;
21.对提取的特征对应的第四个特征层进行上采样,并与第三个特征层进行原始特征直接拼接,以得到第二拼接结果;
22.将所述第一拼接结果、第二拼接结果以及第五个特征层进行可变形卷积操作,以得到对应的卷积结果;
23.将对应的卷积结果进行原始特征直接拼接,以得到融合特征;
24.对所述融合特征进行cbam注意力机制处理,以得到注意力处理结果;
25.对所述注意力处理结果进行上采样处理,以得到上采样处理结果;
26.将所述上采样处理结果进行合并,以得到合并结果;
27.对所述合并结果进行五次反卷积,并进行特征通道数还原和尺寸恢复,以得到增强光照图片,且将第四次反卷积输出的特征进行卷积和原始特征直接拼接,以得到特征拼接结果;
28.将合并结果通过动态条件卷积处理,以得到动态处理特征图;
29.将第四次反卷积输出的特征以及所述动态处理特征图进行原始特征直接拼接,并进行组合卷积,以得到处理结果。
30.其进一步技术方案为:所述将所述处理结果输入至深度学习网络内进行人脸目标框的检测,以得到目标框检测结果,包括:
31.将所述处理结果以及样本集输入至深度学习网络内的卷积块中进行处理,以得到两个卷积特征;
32.对两个卷积特征进行原始特征直接拼接,以得到中间特征;
33.将所述中间特征输入至yolov5模型进行人脸检测,以得到目标框检测结果。
34.其进一步技术方案为:所述将所述中间特征输入至yolov5模型进行人脸检测,以得到目标框检测结果,包括:
35.将所述中间特征进行卷积操作,以得到卷积操作图片,所述卷积操作图片的通道数量与yolov5模型内的cspdarknet第二个resblock大小一致;
36.将所述卷积操作图片输入至yolov5模型内的cspdarknet内,并结合yolov5模型内的spp、panet以及三个yolo头进行人脸检测,以得到目标框检测结果。
37.其进一步技术方案为:所述yolov5模型使用fastnms,且在cspdarknet到panet之间加入了自适应注意力机制,对cspdarknet输出的特征分别进行输出通道数一致普通卷积、空洞卷积以及可变形卷积,经过不同大小的池化适应不同人脸目标,再通过spp使得各自得到一致的特征图大小在经过多次卷积块得到自适应特征,并与cspdarknet输出的特征进行原始特征直接拼接,再经过卷积及激活得到cplf,以作为panet的输出,再通过yolo头进行人脸目标框的预测,以得到目标框检测结果。
38.本发明还提供了低照度的人脸检测装置,包括:
39.图像获取单元,用于获取待检测图像;
40.检测单元,用于将所述待检测图像输入人脸检测模型内进行人脸检测,以得到检测结果;
41.输出单元,用于输出所述检测结果;
42.还包括:模型生成单元,用于通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型,以得到人脸检测模型。
43.本发明还提供了一种计算机设备,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法。
44.本发明还提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法。
45.本发明与现有技术相比的有益效果是:本发明通过对获取的待检测图像进行人脸检测,在人脸检测的过程中,对于光照度不满足要求的图像采用基于对抗神经网络进行直接补光,生成增强光的人脸图片,再对人脸图片进行人脸检测,无需通过阈值的调整进行低光照度的人脸检测,且对抗神经网络可以针对不同程度的低照度光线进行检测,自动生成增强光的图片,人脸目标框的检测过程中,通过自适应机制更好的能检测出不同尺寸大小的人脸信息。
46.下面结合附图和具体实施例对本发明作进一步描述。
附图说明
47.为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
48.图1为本发明实施例提供的低照度的人脸检测方法的应用场景示意图;
49.图2为本发明实施例提供的低照度的人脸检测方法的流程示意图;
50.图3为本发明实施例提供的低照度的人脸检测方法的子流程示意图;
51.图4为本发明实施例提供的低照度的人脸检测方法的子流程示意图;
52.图5为本发明实施例提供的低照度的人脸检测方法的子流程示意图;
53.图6为本发明实施例提供的低照度的人脸检测方法的子流程示意图;
54.图7为本发明实施例提供的低照度的人脸检测方法的子流程示意图;
55.图8为本发明实施例提供的低照度的人脸检测装置的示意性框图;
56.图9为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
57.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
58.应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
59.还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
60.还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
61.请参阅图1和图2,图1为本发明实施例提供的低照度的人脸检测方法的应用场景示意图。图2为本发明实施例提供的低照度的人脸检测方法的示意性流程图。该低照度的人脸检测方法应用于服务器中。该服务器与摄像头以及终端进行数据交互,通过摄像头拍摄待检测图像,将待检测图像输入至人脸检测模型内进行人脸检测,人脸检测模型基于生成对抗神经网络直接对超低光照的图片进行直接补光,生成增强光的人脸图片再对图片进行人脸检测,将检测结果输出至终端显示,实现无需通过阈值调整进行超低光照度地人脸检测,可以针对不同程度的低光照度光线进行人脸检测;更好的预测不同尺度大小的人脸。
62.图2是本发明实施例提供的低照度的人脸检测方法的流程示意图。如图2所示,该方法包括以下步骤s110至s130。
63.s110、获取待检测图像。
64.在本实施例中,待检测图像是指由摄像头拍摄所得的需要进行人脸检测的图像。
65.基于光学摄像头对待检测图像进行采集,采集rgb三通道的图片。
66.s120、将所述待检测图像输入人脸检测模型内进行人脸检测,以得到检测结果。
67.在本实施例中,检测结果是指若待检测图像存在人脸则包括人脸目标框的位置信息等;若待检测图像不存在则检测结果为不存在人脸的结果。
68.其中,所述人脸检测模型通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型所得的。
69.在本实施例中,人脸检测模型基于生成对抗神经网络直接对低光照度的图片进行直接补光,生成增强光的人脸图片再对图片进行人脸检测。其中,对抗神经网络可以针对不同程度的低照度光线进行检测,自动生成增强光的图片,以增强后续人脸目标框检测的准确率。
70.在本实施例中,人脸检测模型实则是基于图片补光以及人脸识别融合形成的模型,同时具备进行人脸去补光以及人脸识别的功能,也就是efir(增强人脸图像识别,enhance face image recognition)模型。
71.在一实施例中,请参阅图3,上述的人脸检测模型通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型所得的,包括以下步骤s121~s124。
72.s121、获取若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对,以得到样本集。
73.在本实施例中,基于光学摄像头对超低光照度人脸图片数据进行采集,采集rgb三通道的图片。采集一对低照度人脸图片以及正常光照强度的匹配的人脸图片,由此形成由低光照度人脸图像以及正常光照度人脸图像构成图像对,样本集则是由若干组由低光照度人脸图像以及正常光照度人脸图像构成的图像对。
74.s122、将所述样本集输入对抗神经网络内进行处理,以得到处理结果。
75.在本实施例中,处理结果是指对低光照度的图片进行直接补光后生成增强光的人脸图片。
76.具体地,本实施例的人脸检测模型无需通过阈值调整进行超低照度人脸检测,基于生成对抗神经网络直接对超低光照的图片进行直接补光,生成增强光的人脸图片再对图片进行人脸检测;可以针对不同程度的低照度光线进行检测,自动生成增强光的图片。
77.在一实施例中,请参阅图4,上述的步骤s122可包括步骤s1221~s1222。
78.s1221、采用对抗神经网络中的多个swin transformer块对所述样本集内的低光照度人脸图像进行特征提取。
79.在本实施例中,基于多个swintransformer block对输入的低光照度人脸图像input image进行特征提取,分别得到对应的图像光照特征:s1、s2、s3、s4、s5,这里的特征分别表示的是4个不同阶段的swintransformer输出的特征。
80.s1222、对提取的特征对应的特征层进行融合处理,以提取感光信息,以得到处理结果。
81.在本实施例中,对提取的特征对应的特征层进行融合操作,以便于提取到不同程度感光的信息。
82.在一实施例中,请参阅图5,上述的步骤s1222可包括步骤s1222a~s1222j。
83.s1222a、对提取的特征对应的第二个特征层进行上采样,并与第一个特征层进行原始特征直接拼接,以得到第一拼接结果。
84.在本实施例中,第一拼接结果是指对提取的特征对应的第二个特征层进行上采样,并与第一个特征层进行原始特征直接拼接后形成的结果。
85.具体地,对特征s2上采样,并与特征s1进行原始特征直接拼接操作,得到第一拼接结果s12。
86.s1222b、对提取的特征对应的第四个特征层进行上采样,并与第三个特征层进行原始特征直接拼接,以得到第二拼接结果。
87.在本实施例中,第二拼接结果是指对提取的特征对应的第四个特征层进行上采样,并与第三个特征层进行原始特征直接拼接后形成的结果。
88.具体地,对特征s4上采样,并与特征s3进行原始特征直接拼接操作,得到第二拼接结果s34。
89.s1222c、将所述第一拼接结果、第二拼接结果以及第五个特征层进行可变形卷积操作,以得到对应的卷积结果。
90.在本实施例中,对应的卷积结果是指对第一拼接结果、第二拼接结果以及第五个特征层分别进行可变形卷积操作形成的对应结果,该结果包括三个。
91.具体地,对第一拼接结果s12、第二拼接结果s34以及第五个特征层也就是第五个特征s5对应的特征层分别通过可变形卷积操作,得到三个卷积结果dsa、dsb以及dsc,这里操作是为了更方便人脸检测模型能提高对不同形状光照度区域提取更好的敏感性。
92.s1222d、将对应的卷积结果进行原始特征直接拼接,以得到融合特征。
93.在本实施例中,融合特征是指三个卷积结果进行原始特征直接拼接形成的结果。
94.具体地,对三个卷积结果dsa、dsb以及dsc进行原始特征直接拼接,得到融合特征mf。
95.s1222e、对所述融合特征进行cbam(轻量的注意力模块,convolutional block attention module)注意力机制处理,以得到注意力处理结果。
96.在本实施例中,注意力处理结果是指对融合特征进行cbam注意力机制处理后形成的结果。
97.具体地,通过对融合特征mf进行cbam注意力机制处理,以得到注意力处理结果amf。
98.s1222f、对所述注意力处理结果进行上采样处理,以得到上采样处理结果。
99.在本实施例中,上采样处理结果是指对注意力处理结果进行卷积激活以及三个不同上采用组合方式处理后形成的结果。
100.具体地,分别对注意力处理结果amf的特征进行上采样处理,这里的上采样处理包括分别进行卷积激活以及三个不同上采用组合方式处理,以得到3个特征层ffs(人脸特征点,face features);对于三种不同上采样分别是双三次插值、pixelshuffle以及capafe上采样,并最终将三者输出的结果进行合并得到合并结果f
u1

101.s1222g、将所述上采样处理结果进行合并,以得到合并结果。
102.在本实施例中,合并结果是指对三个上采样处理结果进行合并形成的结果。
103.s1222h、对所述合并结果进行五次反卷积,并进行特征通道数还原和尺寸恢复,以得到增强光照图片,且将第四次反卷积输出的特征进行卷积和原始特征直接拼接,以得到特征拼接结果。
104.在本实施例中,对合并结果f
u1
进行5次反卷积;该反卷积模块则是由反卷积及relu激活函数构成,并最终通过channel recover将上采样即合并结果的特征通道数还原到三通道以及大小恢复到与输入图片即样本集内的低光照度人脸图像的大小,以得到增强光照图片fake image。
105.在本实施例中,增强光照图片是指光照度增强后的图像。
106.对于5次反卷积中的第四个反卷积模块的输出特征fo,对其尺寸大小进行卷积,并与注意力处理结果amf尺寸大小保持一致,并通过原始特征直接拼接合并得到特征拼接结果f1。
107.s1222i、将合并结果通过动态条件卷积处理,以得到动态处理特征图。
108.在本实施例中,动态处理特征图是指将合并结果通过动态条件卷积处理形成的结果。
109.具体地,合并结果f
u1
通过动态条件卷积处理,以保证输出的f2的特征图大小与第四次反卷积输出的特征fo大小保持一致。
110.s1222j、将第四次反卷积输出的特征以及所述动态处理特征图进行原始特征直接拼接,并进行组合卷积,以得到处理结果。
111.具体地,将动态处理特征图fo与第四次反卷积输出的特征f2始特征直接拼接合并,并最终通过组合卷积得到处理结果f
fusion

112.s123、将所述处理结果输入至深度学习网络内进行人脸目标框的检测,以得到目标框检测结果。
113.在本实施例中,目标框检测结果是指人脸目标框的位置等检测结果。
114.在一实施例中,请参阅图6,上述的步骤s123可包括步骤s1231~s1233。
115.s1231、将所述处理结果以及样本集输入至深度学习网络内的卷积块中进行处理,以得到两个卷积特征。
116.在本实施例中,两个卷积特征分别包括处理结果输入至深度学习网络内的卷积块进行卷积形成的特征以及样本集输入至深度学习网络内的卷积块进行卷积形成的特征。
117.具体地,基于上述对抗神经网络中得到处理结果f
fusion
,同时将原图即样本集输入到卷积块中,该卷积块包含空洞卷积激活函数,这里选取mish激活函数,得到特征of(原始特征,original feature)。
118.s1232、对两个卷积特征进行原始特征直接拼接,以得到中间特征。
119.在本实施例中,中间特征是指对两个卷积特征进行原始特征直接拼接后形成的特征。
120.具体地,对两个卷积特征进行原始特征直接拼接,得到中间特征f
mix

121.s1233、将所述中间特征输入至yolov5模型进行人脸检测,以得到目标框检测结果。
122.在一实施例中,请参阅图7,上述的步骤s1233可包括步骤s12331~s12332。
123.s12331、将所述中间特征进行卷积操作,以得到卷积操作图片,所述卷积操作图片
的通道数量与yolov5模型内的cspdarknet第二个resblock大小一致。
124.在本实施例中,卷积操作图片是指中间特征进行卷积操作形成的图片。
125.具体地,将中间特征f
mix
此特征进行卷积操作,使其通道数的数量与cspdarknet第二个resblock大小保持一致。
126.s12332、将所述卷积操作图片输入至yolov5模型内的cspdarknet内,并结合yolov5模型内的spp、panet以及三个yolo头进行人脸检测,以得到目标框检测结果。
127.在本实施例中,卷积操作图片输入至yolov5模型内的cspdarknet内,且结合spp以及panet以及三个yolo头进行人脸检测。
128.在本实施例中,所述yolov5模型使用fastnms(快速非极大值抑制,fast non-maximum suppression),且在cspdarknet到panet之间加入了自适应注意力机制,对cspdarknet输出的特征分别进行输出通道数一致普通卷积、空洞卷积以及可变形卷积,经过不同大小的池化适应不同人脸目标,再通过spp使得各自得到一致的特征图大小在经过多次卷积块得到自适应特征,并与cspdarknet输出的特征进行原始特征直接拼接,再经过卷积及激活得到cplf,以作为panet的输出,再通过yolo头进行人脸目标框的预测,以得到目标框检测结果。
129.采用fastnms进行非极大抑制,可提升人脸检测模型的训练效率。具体地,在进行非极大抑制策略中使用了fastnms。同时对于cspdarknet到panet之间加入了自适应注意力机制,对csp输出的特征cof(csp输出特征,csp output feature)分别进行输出通道数一致普通卷积,空洞卷积以及可变形卷积,然后经过不同大小的池化适应不同人脸目标,再通过spp使得各自得到一致的特征图大小在经过多次卷积块即卷积加上激活,得到af(自适应特征,adaptive feature)并与cof特征进行原始特征直接拼接,再经过卷积及激活得到cplf即csp panet linked feature,作为panet输出,最终通过yolo头进行人脸目标框的预测。该yolov5模型通过自适应机制更好的能检测出不同尺寸大小的人脸信息。
130.s124、根据所述处理结果、目标框检测结果结合对应的损失函数进行对抗神经网络以及深度学习网络的参数调整,以得到人脸检测模型。
131.在本实施例中,根据所述处理结果、目标框检测结果结合对应的损失函数计算损失值,根据损失值是否趋于收敛,当不趋于收敛时,则进行对抗神经网络以及深度学习网络的参数调整再训练,直至损失值收敛,模型训练收敛,才将最终的对抗神经网络以及深度学习网络组成人脸检测模型。
132.在本实施例中,对应的损失函数包括对抗神经网络的损失函数以及yolov5模型的损失函数。
133.其中,对抗生成网络的损失函数包括:像素损失函数、特征损失函数以及对抗损失函数。像素损失函数选用huber损失函数,与自偏导损失函数相加,公式如下所示:这里对于huber函数设置δ=5,huber函数为:这里基于生成的增强光照fake image与正常光照下的图片计算其损失,公式中的r代表的是正常光照下的图片,公式中的代表的是生成
的增强光照图片,公式中以及代表的是每个像素点对应周围像素的偏导数,这是为了更好的能保证生成的增强光照图片的和正常照度图片在不同区域的光照程度保持一致,在本实施例中,α设置为0.3,β设置为0.2。
134.特征损失函数使用mse损失函数:特征损失函数使用mse损失函数:公式中的r代表的是正常光照图片,公式中的代表的是生成的增强光照图片特征。
135.由此可见,对抗损失函数为:由此可见,对抗损失函数为:总体损失函数为loss
total
=μ1loss
pix
+μ2loss
feature
+μ3loss
adversarial
,在本实施例中,μ1=0.5,μ2loss
feature
=0.2,μ3loss
adversarial
=0.3。
136.目标检测损失函数即yolov5模型的损失函数;该损失函数和yolov3的损失函数一样,主要包括:中心坐标误差;宽高坐标误差;置信度误差;分类误差。
137.整个人脸检测模型在训练过程中,对于对抗神经网络的训练,在进行增强光照度模型的训练中,采用的训练样本为各种低光照强度以及各重角度的光照。对于人脸检测模型的训练采用增强光照以及检测人脸的多任务同时训练。
138.整个人脸检测模型能够很好的适应不同程度低照度光的影响,以及不同角度的低照度人脸图片,无需人工设定参数进行增强人脸图片的光照强度。同时在人脸检测的过程中加入了自适应机制能够更好的预测不同尺度大小的人脸,并通过fastnms能够加快模型的训练预测的速度。
139.s130、输出所述检测结果。
140.上述的低照度的人脸检测方法,通过对获取的待检测图像进行人脸检测,在人脸检测的过程中,对于光照度不满足要求的图像采用基于对抗神经网络进行直接补光,生成增强光的人脸图片,再对人脸图片进行人脸检测,无需通过阈值的调整进行低光照度的人脸检测,且对抗神经网络可以针对不同程度的低照度光线进行检测,自动生成增强光的图片,人脸目标框的检测过程中,通过自适应机制更好的能检测出不同尺寸大小的人脸信息。
141.图8是本发明实施例提供的一种人脸检测装置300的示意性框图。如图8所示,对应于以上低照度的人脸检测方法,本发明还提供一种低照度的人脸检测装置300。该低照度的人脸检测装置300包括用于执行上述低照度的人脸检测方法的单元,该装置可以被配置于服务器中。具体地,请参阅图8,该低照度的人脸检测装置300包括图像获取单元301、检测单元302以及输出单元303。
142.图像获取单元301,用于获取待检测图像;检测单元302,用于将所述待检测图像输入人脸检测模型内进行人脸检测,以得到检测结果;输出单元303,用于输出所述检测结果。
143.在一实施例中,上述的低照度的人脸检测装置300还包括:模型生成单元,用于通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型,以得到人脸检测模型。
144.在一实施例中,所述模型生成单元包括样本集获取子单元、处理子单元、目标框检测子单元以及调整子单元。
145.样本集获取子单元,用于获取若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对,以得到样本集;处理子单元,用于将所述样本集输入对抗神经网络内进行处理,以得到处理结果;目标框检测子单元,用于将所述处理结果输入至深度学习网络内进行
人脸目标框的检测,以得到目标框检测结果;调整子单元,用于根据所述处理结果、目标框检测结果结合对应的损失函数进行对抗神经网络以及深度学习网络的参数调整,以得到人脸检测模型。
146.在一实施例中,所述处理子单元包括特征提取模块以及融合处理模块。
147.特征提取模块,用于采用对抗神经网络中的多个swin transformer块对所述样本集内的低光照度人脸图像进行特征提取;融合处理模块,用于对提取的特征对应的特征层进行融合处理,以提取感光信息,以得到处理结果。
148.在一实施例中,所述融合处理模块包括第一拼接子模块、第二拼接子模块、第一卷积子模块、第三拼接子模块、注意力处理子模块、上采样子模块、第一合并子模块、第一反卷积子模块、第二卷积子模块以及第三卷积子模块。
149.第一拼接子模块,用于对提取的特征对应的第二个特征层进行上采样,并与第一个特征层进行原始特征直接拼接,以得到第一拼接结果;第二拼接子模块,用于对提取的特征对应的第四个特征层进行上采样,并与第三个特征层进行原始特征直接拼接,以得到第二拼接结果;第一卷积子模块,用于将所述第一拼接结果、第二拼接结果以及第五个特征层进行可变形卷积操作,以得到对应的卷积结果;第三拼接子模块,用于将对应的卷积结果进行原始特征直接拼接,以得到融合特征;注意力处理子模块,用于对所述融合特征进行cbam注意力机制处理,以得到注意力处理结果;上采样子模块,用于对所述注意力处理结果进行上采样处理,以得到上采样处理结果;第一合并子模块,用于将所述上采样处理结果进行合并,以得到合并结果;第一反卷积子模块,用于对所述合并结果进行五次反卷积,并进行特征通道数还原和尺寸恢复,以得到增强光照图片,且将第四次反卷积输出的特征进行卷积和原始特征直接拼接,以得到特征拼接结果;第二卷积子模块,用于将合并结果通过动态条件卷积处理,以得到动态处理特征图;第三卷积子模块,用于将第四次反卷积输出的特征以及所述动态处理特征图进行原始特征直接拼接,并进行组合卷积,以得到处理结果。
150.在一实施例中,所述目标框检测子单元包括卷积块处理模块、特征拼接模块以及人脸检测模块。
151.卷积块处理模块,用于将所述处理结果以及样本集输入至深度学习网络内的卷积块中进行处理,以得到两个卷积特征;特征拼接模块,用于对两个卷积特征进行原始特征直接拼接,以得到中间特征;人脸检测模块,用于将所述中间特征输入至yolov5模型进行人脸检测,以得到目标框检测结果。
152.在一实施例中,所述人脸检测模块包括卷积操作子模块以及输入处理子模块。
153.卷积操作子模块,用于将所述中间特征进行卷积操作,以得到卷积操作图片,所述卷积操作图片的通道数量与yolov5模型内的cspdarknet第二个resblock大小一致;输入处理子模块,用于将所述卷积操作图片输入至yolov5模型内的cspdarknet内,并结合yolov5模型内的spp、panet以及三个yolo头进行人脸检测,以得到目标框检测结果。
154.需要说明的是,所属领域的技术人员可以清楚地了解到,上述人脸检测装置300和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
155.上述人脸检测装置300可以实现为一种计算机程序的形式,该计算机程序可以在如图9所示的计算机设备上运行。
156.请参阅图9,图9是本技术实施例提供的一种计算机设备的示意性框图。该计算机设备500可以是服务器,其中,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
157.参阅图9,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
158.该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032包括程序指令,该程序指令被执行时,可使得处理器502执行一种低照度的人脸检测方法。
159.该处理器502用于提供计算和控制能力,以支撑整个计算机设备500的运行。
160.该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行一种低照度的人脸检测方法。
161.该网络接口505用于与其它设备进行网络通信。本领域技术人员可以理解,图9中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
162.其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下步骤:
163.获取待检测图像;将所述待检测图像输入人脸检测模型内进行人脸检测,以得到检测结果;输出所述检测结果;
164.其中,所述人脸检测模型通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型所得的。
165.在一实施例中,处理器502在实现所述人脸检测模型通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型所得的步骤时,具体实现如下步骤:
166.获取若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对,以得到样本集;将所述样本集输入对抗神经网络内进行处理,以得到处理结果;将所述处理结果输入至深度学习网络内进行人脸目标框的检测,以得到目标框检测结果;根据所述处理结果、目标框检测结果结合对应的损失函数进行对抗神经网络以及深度学习网络的参数调整,以得到人脸检测模型。
167.在一实施例中,处理器502在实现所述将所述样本集输入对抗神经网络内进行处理,以得到处理结果步骤时,具体实现如下步骤:
168.采用对抗神经网络中的多个swin transformer块对所述样本集内的低光照度人脸图像进行特征提取;对提取的特征对应的特征层进行融合处理,以提取感光信息,以得到处理结果。
169.在一实施例中,处理器502在实现所述对提取的特征对应的特征层进行融合处理,以提取感光信息,以得到处理结果步骤时,具体实现如下步骤:
170.对提取的特征对应的第二个特征层进行上采样,并与第一个特征层进行原始特征直接拼接,以得到第一拼接结果;
171.对提取的特征对应的第四个特征层进行上采样,并与第三个特征层进行原始特征
直接拼接,以得到第二拼接结果;将所述第一拼接结果、第二拼接结果以及第五个特征层进行可变形卷积操作,以得到对应的卷积结果;将对应的卷积结果进行原始特征直接拼接,以得到融合特征;对所述融合特征进行cbam注意力机制处理,以得到注意力处理结果;对所述注意力处理结果进行上采样处理,以得到上采样处理结果;将所述上采样处理结果进行合并,以得到合并结果;对所述合并结果进行五次反卷积,并进行特征通道数还原和尺寸恢复,以得到增强光照图片,且将第四次反卷积输出的特征进行卷积和原始特征直接拼接,以得到特征拼接结果;将合并结果通过动态条件卷积处理,以得到动态处理特征图;将第四次反卷积输出的特征以及所述动态处理特征图进行原始特征直接拼接,并进行组合卷积,以得到处理结果。
172.在一实施例中,处理器502在实现所述将所述处理结果输入至深度学习网络内进行人脸目标框的检测,以得到目标框检测结果步骤时,具体实现如下步骤:
173.将所述处理结果以及样本集输入至深度学习网络内的卷积块中进行处理,以得到两个卷积特征;对两个卷积特征进行原始特征直接拼接,以得到中间特征;将所述中间特征输入至yolov5模型进行人脸检测,以得到目标框检测结果。
174.在一实施例中,处理器502在实现所述将所述中间特征输入至yolov5模型进行人脸检测,以得到目标框检测结果步骤时,具体实现如下步骤:
175.将所述中间特征进行卷积操作,以得到卷积操作图片,所述卷积操作图片的通道数量与yolov5模型内的cspdarknet第二个resblock大小一致;将所述卷积操作图片输入至yolov5模型内的cspdarknet内,并结合yolov5模型内的spp、panet以及三个yolo头进行人脸检测,以得到目标框检测结果。
176.其中,所述yolov5模型使用fastnms,且在cspdarknet到panet之间加入了自适应注意力机制,对cspdarknet输出的特征分别进行输出通道数一致普通卷积、空洞卷积以及可变形卷积,经过不同大小的池化适应不同人脸目标,再通过spp使得各自得到一致的特征图大小在经过多次卷积块得到自适应特征,并与cspdarknet输出的特征进行原始特征直接拼接,再经过卷积及激活得到cplf,以作为panet的输出,再通过yolo头进行人脸目标框的预测,以得到目标框检测结果。
177.应当理解,在本技术实施例中,处理器502可以是中央处理单元(central processing unit,cpu),该处理器502还可以是其他通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现成可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
178.本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序包括程序指令,计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该程序指令被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
179.因此,本发明还提供一种存储介质。该存储介质可以为计算机可读存储介质。该存储介质存储有计算机程序,其中该计算机程序被处理器执行时使处理器执行如下步骤:
180.获取待检测图像;将所述待检测图像输入人脸检测模型内进行人脸检测,以得到
检测结果;输出所述检测结果;
181.其中,所述人脸检测模型通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型所得的。
182.在一实施例中,所述处理器在执行所述计算机程序而实现所述人脸检测模型通过若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对作为样本集训练由对抗神经网络以及深度学习网络构成的模型所得的步骤时,具体实现如下步骤:
183.获取若干组由低光照度人脸图像以及正常光照度人脸图像构成图像对,以得到样本集;将所述样本集输入对抗神经网络内进行处理,以得到处理结果;将所述处理结果输入至深度学习网络内进行人脸目标框的检测,以得到目标框检测结果;根据所述处理结果、目标框检测结果结合对应的损失函数进行对抗神经网络以及深度学习网络的参数调整,以得到人脸检测模型。
184.在一实施例中,所述处理器在执行所述计算机程序而实现所述将所述样本集输入对抗神经网络内进行处理,以得到处理结果步骤时,具体实现如下步骤:
185.采用对抗神经网络中的多个swin transformer块对所述样本集内的低光照度人脸图像进行特征提取;对提取的特征对应的特征层进行融合处理,以提取感光信息,以得到处理结果。
186.在一实施例中,所述处理器在执行所述计算机程序而实现所述对提取的特征对应的特征层进行融合处理,以提取感光信息,以得到处理结果步骤时,具体实现如下步骤:
187.对提取的特征对应的第二个特征层进行上采样,并与第一个特征层进行原始特征直接拼接,以得到第一拼接结果;
188.对提取的特征对应的第四个特征层进行上采样,并与第三个特征层进行原始特征直接拼接,以得到第二拼接结果;将所述第一拼接结果、第二拼接结果以及第五个特征层进行可变形卷积操作,以得到对应的卷积结果;将对应的卷积结果进行原始特征直接拼接,以得到融合特征;对所述融合特征进行cbam注意力机制处理,以得到注意力处理结果;对所述注意力处理结果进行上采样处理,以得到上采样处理结果;将所述上采样处理结果进行合并,以得到合并结果;对所述合并结果进行五次反卷积,并进行特征通道数还原和尺寸恢复,以得到增强光照图片,且将第四次反卷积输出的特征进行卷积和原始特征直接拼接,以得到特征拼接结果;将合并结果通过动态条件卷积处理,以得到动态处理特征图;将第四次反卷积输出的特征以及所述动态处理特征图进行原始特征直接拼接,并进行组合卷积,以得到处理结果。
189.在一实施例中,所述处理器在执行所述计算机程序而实现所述将所述处理结果输入至深度学习网络内进行人脸目标框的检测,以得到目标框检测结果步骤时,具体实现如下步骤:
190.将所述处理结果以及样本集输入至深度学习网络内的卷积块中进行处理,以得到两个卷积特征;对两个卷积特征进行原始特征直接拼接,以得到中间特征;将所述中间特征输入至yolov5模型进行人脸检测,以得到目标框检测结果。
191.在一实施例中,所述处理器在执行所述计算机程序而实现所述将所述中间特征输入至yolov5模型进行人脸检测,以得到目标框检测结果步骤时,具体实现如下步骤:
192.将所述中间特征进行卷积操作,以得到卷积操作图片,所述卷积操作图片的通道
数量与yolov5模型内的cspdarknet第二个resblock大小一致;将所述卷积操作图片输入至yolov5模型内的cspdarknet内,并结合yolov5模型内的spp、panet以及三个yolo头进行人脸检测,以得到目标框检测结果。
193.其中,所述yolov5模型使用fastnms,且在cspdarknet到panet之间加入了自适应注意力机制,对cspdarknet输出的特征分别进行输出通道数一致普通卷积、空洞卷积以及可变形卷积,经过不同大小的池化适应不同人脸目标,再通过spp使得各自得到一致的特征图大小在经过多次卷积块得到自适应特征,并与cspdarknet输出的特征进行原始特征直接拼接,再经过卷积及激活得到cplf,以作为panet的输出,再通过yolo头进行人脸目标框的预测,以得到目标框检测结果。
194.所述存储介质可以是u盘、移动硬盘、只读存储器(read-only memory,rom)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
195.本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
196.在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
197.本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
198.该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,终端,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
199.以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1