一种基于多任务生成对抗网络的真实场景小物体检测方法与流程

文档序号:16506155发布日期:2019-01-05 09:02阅读:599来源:国知局
一种基于多任务生成对抗网络的真实场景小物体检测方法与流程

本发明涉及一种基于多任务生成对抗网络的真实场景小物体检测方法,属于计算机视觉领域中的物体检测技术领域。



背景技术:

近年来,在新一轮“人工智能革命”的推动下,科学技术竞技日趋激烈,人工智能的迅速发展深刻改变着人类社会生活、改变着世界。基于深度学习的物体检测技术,特别是真实场景下的小物体检测技术正是在这种背景下出现并迅速发展的针对特定物体识别和定位的一种解决方案。物体检测技术作为图像处理领域的重要部分一直是计算机视觉领域中一个非常重要的基础性研究课题,同时,它在一些实际应用(例如,图像检索、智能监控,以及自动驾驶等)中扮演着关键技术的角色。对其展开深入研究不仅具有广泛的应用需求和前景,对于解决计算机视觉领域的其它问题也有重大的研究意义。

尽管物体检测关键技术近几年得到了迅猛发展,相关机构也投入了大量人力、物力,国内外学者在许多相关领域也都取得了丰硕的研究成果,但是现阶段的研究大多是在实验室的摆拍图像上进行的,这样的图像具有如下特点:第一,物体较大,且位于图像正中央;第二,图像背景较为干净。然而在现实场景中的图像,物体通常极其微小而且背景较为复杂,同时可能会受到尺度、姿态、遮挡、光照等诸多因素的影响导致现实场景中的小物体无法被正确检测的问题。

针对真实场景下的物体检测问题,现有物体检测方法可以分为两类:两阶物体检测框架和一阶物体检测框架。但是现有的方法只是对于检测那些较大物体(面积>32*32像素)有效,如图1(a)和(b)所示。而对于小物体检测的正确率远远不能令人满意,如图1(c)所示。图中深黄色部分面积所占比例(右上角)表示检测失败率,从图中可以看出,小物体检测的正确率与较大物体检测的正确率间存在巨大的差距。其中,小物体检测的困难在于,小物体缺少足够的细节信息来实现与背景或者相似物体的区分。

对于真实场景下的小物体检测问题,现有的小物体检测方法对真实场景下的复杂多变工作环境的自适应能力较差,常常是在背景较简单或在各自特定的工作场合的条件下设计的检测方法才可以较好的工作。但是当检测目标较小且图像背景较为复杂时,现存的物体检测技术通常存在检测率低的问题。相应的,也有一些方法来解决小物体检测问题。例如,ssd利用深度卷积神经网络中的中间层特征来实现小物体的检测,但是这些特征为浅层特征,不具有丰富的语义信息,通常因分类错误而导致检测失败;fpn利用特征金字塔来提取不同尺度物体的特征,其中将具有丰富语义特性的高层特征上采样与细节信息多样的底层特征相融合来实现小物体检测,但是人为的上采样过程会给小物体的检测带来巨大的影响。



技术实现要素:

本发明为了解决现有小物体检测方法对真实场景下的复杂多变工作环境的自适应能力较差导致背景复杂多变的情况下小物体无法清晰识别的问题,提出了一种基于多任务生成对抗网络的真实场景小物体检测方法,所述基于多任务生成对抗网络的小物体检测方法使检测对象不只局限于真实场景中的较大的物体,更不局限于实验室理想情况下的摆拍图片,而实现真实复杂场景中的小物体检测,尤其实现在物体距离图像捕获设备较远时产生的小物体的检测。本发明所述真实场景小物体检测方法所采取的技术方案如下:

一种基于多任务生成对抗网络的真实场景小物体检测方法,所述检测方法包括:

步骤一:确定一个训练样本集,并利用所述训练样本集训练一个物体检测器;所述训练样本集中包含多张图像;

步骤二:利用所述物体检测器为多任务生成对抗网络截取产生训练样本;

步骤三:根据所述训练样本构建多任务生成对抗网络训练样本;所述多任务生成对抗网络训练样本中包括正训练样本和负训练样本;

步骤四:将截取产生的训练样本作为高分辨率图像,利用双线性插值法将所述高分辨率图像下采样4倍获得的图像作为相应的低分辨率图像;

步骤五:分别建立以低分辨率图像为输入的生成器网络和以高分辨率图像作为输入的具有分类分支和位置回归分支结构的鉴别器网络;

步骤六:利用所述生成器网络和鉴别器网络并结合步骤四所述正训练样本和负训练样本对多任务生成对抗网络进行训练;所述多任务生成对抗网络训练好后获得小物体检测网络;

步骤七:将待检测图片输入所述小物体检测网络中,所述小物体检测网络根据待检测图片中的小物体图像生成对应的高分辨的物体图像,进而完成真实场景下的小物体检测任务。

进一步地,步骤一所述训练样本集采用microsoftcoco数据集,并将microsoftcoco数据集中的115k数据作为训练集样本,将microsoftcoco数据集中的5k数据作为验证集样本,将microsoftcoco数据集中的5k数据作为测试集样本;

所述训练样本中的物体图像根据面积大小分为较大、中等和较小三个大小档次,其中较大的物体图像是指面积大于96×96像素的图像;中等的物体图像是指面积大于32×32像素,小于96×96像素的图像;较小的图像是指面积小于32×32像素的图像。

进一步地,步骤二所述物体检测器为多任务生成对抗网络截取产生训练样本的具体过程包括:

第一步:利用所述物体检测器对训练样本集中的每一张图像进行物体位置信息预测;

第二步:在每一张进行了物体位置信息预测后的图像中截取600个最有可能包含物体的区域图像;

第三步:将所截取的图像区域进行保存,保存后的区域图像作为所述多任务生成对抗网络的训练样本。

进一步地,步骤三所述多任务生成对抗网络训练样本的构建过程为:

求取所述训练样本中每一个区域图像与图像中标注的物体位置真值的重叠面积,如果所述重叠面积大于0.5则将所述区域图像标记为物体图像;所述物体图像即为正训练样本;如果所述重叠面积小于0.45则将所述区域图像标记为背景图像;所述背景图像即为负训练样本;所述正训练样本和背景图像即为所述多任务生成对抗网络训练样本。

进一步地,步骤五所述生成器网络为深度学习网络,所述生成器网络的结构包括:卷积层一、卷积层二、卷积层三、反卷积层一、反卷积层二和卷积层四;所述卷积层一的数据输入端即为生成器网络的数据输入端;所述卷积层一的数据输出端与所述卷积层二的数据输入端相连;所述卷积层二的数据输出端与层三的数据输入端相连;所述卷积层三的数据输出端与所述反卷积层一数据输入端相连;所述反卷积层一的数据输出端与所述反卷积层二数据输入端相连;所述反卷积层二的数据输出端与所述卷积层四的数据输入端相连。

进一步地,所述卷积层二包括5层卷基层;所述反卷积层一和反卷积层二具有2倍的上采样率。

进一步地,所述鉴别器网络采用尾端连接有三个平行设置的全连接层的resnat50/resnet101网络;所述三个全连接层分别为全连接层fcgan、全连接层fccls和全连接层fcreg。

进一步地,步骤六所述多任务生成对抗网络的训练方法为通过让生成器网络和鉴别器网络相互博弈、交替优化的方式进行学习训练整个多任务生成对抗网络,具体的训练过程为:

步骤1:在低分辨率图像中,所述生成器网络随机采样一个低分辨率图像作为输入,所述生成器网络利用所述低分辨率图像学习生成相应的一张高分辨率图像作为结果输出;所述生成器网络通过尽量模仿高分辨率样本集中的真实样本的方式来欺骗鉴别器网络中高分辨率图像真假的判断环节;

步骤2:将真实的高分辨率图像或所述生成器网络生成的高分辨率图像输入至鉴别器网络中,所述鉴别器网络将所述生成器网络生成的高分辨率图像分辨出来;

步骤3:所述鉴别器网络判断分辨出来的所述生成的高分辨率图像的类别,并对所述高分辨率图像中物体位置进行回归预测;

步骤4:重复步骤1至步骤3的环节,使生成器网络和鉴别器网络相互对抗、不断调整参数,最终使鉴别器网络无法判断出高分辨率的图像是生成器网络输出的高分辨率图像还是真实的训练样本中的高分辨率图像;当生成器网络生成的清晰的高分辨图像达到鉴别器网络无法判别真假的程度,同时,鉴别器网络准确分类输入高分辨率图像的类别并进一步进行位置回归时,所述多任务生成对抗网络训练完成,获得所述小物体检测网络。

进一步地,所述多任务生成对抗网络的目标函数中引入分类损失函数和位置回归损失函数,所述目标函数的形式如下:

其中,

其中,(x,y)为被截取训练样本左上角的像素坐标,(w,h)表示取向区域的宽和高;θ,ω分别为鉴别器和生成器的网络参数;dθ,gω分别是鉴别器和生成器的功能函数,分别是输入的低分辨率图像和对应的高分辨率图像,α是目标函数中对抗损失函数与像素级损失函数的权值分配系数,n是训练样本总数vi=(vi,x,vi,y,vi,w,vi,h)是物体位置真值信息的回归目标值,ti=(ti,x,ti,y,ti,w,ti,h)是预测的物体位置信息,分别表示地i个高分辨率真值图像和生成的高分辨率图像,当ui≥1时,[ui≥1]等于1,否则等于0,β,γ分别是分类损失函数和位置回归损失函数的权重系数。

进一步地,所述生成器网络的网络参数从原始初始化开始训练,采用标准差为0.02的高斯分布来初始化卷积核参数,生成器网络的偏差初始化为0;

所述鉴别器网络的网络参数利用在imagenet数据集上预训练好的的模型进行初始化,对于鉴别器网络中的全连接层fcgan,fccls,和fcreg,用标准差为0.1的高斯分布进行初始化,同时,鉴别器网络的偏差初始化为0;

在训练所述多任务生成对抗网络的整个网络时,每个mini-batch包含128张图像,正训练样本和负训练样本比例为1:1,总迭代次数为80k,前40k迭代的学习率为0.01,后40k次迭代的学习率为0.001。

本发明有益效果:

本发明所述基于多任务生成对抗网络的真实场景小物体检测方法为了克服小物体检测存在的问题,将多任务生成对抗网络引入到物体检测中。利用生成对抗网络从一张小物体图像学习生成相应的清晰的高分辨率图像,如图2所示,基于清晰的高分辨率图像进行物体检测将极大的促进检测准确率的提升。本发明突破了深度学习方法不适用于小物体的检测问题,克服了现阶段的物体检测方法在真实场景中检测正确率低的困难,促进了基于深度学习的物体检测方法在真实场景下的应用。

同时,传统的生成对抗网络的输入为随机噪声(如图3所示),且存在的缺点有:第一,生成图像的多样性较差;第二,网络训练不稳定,训练难度大;第三,生成对抗网络的鉴别器只能判定生成的图像是真实图像还是由生成器合成图像(真/假),不具有物体检测中的分类和位置回归功能。本发明所述基于多任务生成对抗网络的真实场景小物体检测方法对传统的生成对抗网络做如下修改:第一,为了实现从模糊的小物体生成到清晰的超分辨率的物体图像(本发明中实现4倍上采样),本发明将生成对抗网络的输入由随机噪声替换成低分辨率的小物体图像;第二,修改鉴别器的网络结构,将鉴别器网络增加一个分类分支和一个位置回归分支,把鉴别器网络由传统的只能判定真/假的网络变为一个多任务的深度卷积神经网络,使得鉴别器具有同时具有鉴别真/假,判定物体类别,和调整物体位置信息的功能。具体来说,在鉴别器的主网络(resnet50/resnet101)结构的基础上,连接三个平行的全连接层fcgan,fccls和fcreg,其中fcgan的作用为判别输入图像为真/假,fccls的作用为判别物体的具体类别,fcreg的作用是对物体的位置进行进一步的微调。

此外,本发明还将鉴别器中的分类损失函数和位置回归损失函数引入到目标函数中,使得生成器生成的高分辨率图像包含更多的细节信息、更加清晰,从而使得鉴别器更加容易对物体进行分类和对物体的位置进行进一步的微调,进而实现小物体的准确检测和识别。

综上,本发明将生成对抗网络成功的引入到小物体检测技术中,提出了一种新颖的基于多任务生成对抗网络的小物体检测框架。此外,在综合考虑了现有的生成对抗网络的不足,分析了小物体检测的实际需求的基础上,本发明对现有生成对抗网络的输入、网络结构及目标函数进行了修改。本发明的“基于多任务生成对抗网络的小物体检测方法”中,生成对抗网络可以根据小物体图像来生成一张相应的高清物体图像,解决现有的基于深度学习的物体检测方法不适用于小物体检测的问题,促进了小物体检测技术的发展,为物体检测技术从实验室到实际应用起到了一定的推动作用,同时,还为生成对抗网络找到了一个新的应用方向。

附图说明

图1为coco数据集中物体检测错误分析图。

图2为多任务生成对抗网络生成图片示意图。

图3为传统生成对抗网络示意图。

图4为基于多任务生成对抗网络的真实场景小物体检测方法具体实施方式示意图。

图5为实验结果图一。

图6为实验结果图二。

图7为实验结果图三。

图8为实验结果图四。

(图1中,coco数据集中物体检测错误分析图,右上角的深黄色部分所占比例为检测失败的比例,其中,large是指物体面积大于96*96像素的物体,medium是指物体大于32*32小于96*96像素的物体,small是指物体面积小于32*32像素的物体。

图2中,多任务生成对抗网络生成图片示意图,其中第一列是原始的小物体图像(为了方便与生成图像的比较,本发明将其放大4倍),第二列是高清图像真值,第三列为多任务生成对抗网络根据原始的小物体生成的图像。

图5中,实验结果图,其中红色标记框为本发明识别结果,绿色标记框为人工标记真值。

图6中,实验结果图,其中红色标记框为本发明识别结果,绿色标记框为人工标记真值。

图7中,实验结果图,其中红色标记框为本发明识别结果,绿色标记框为人工标记真值。

图8中,实验结果图,其中红色标记框为本发明识别结果,绿色标记框为人工标记真值。

具体实施方式

下面结合具体实施例对本发明做进一步说明,但本发明不受实施例的限制。

实施例1:

本实施例提出一种基于多任务生成对抗网络的真实场景小物体检测方法,如图4所示,所述检测方法包括:

步骤一:确定一个训练样本集,并利用所述训练样本集训练一个物体检测器;所述训练样本集中包含多张图像;

步骤二:利用所述物体检测器为多任务生成对抗网络截取产生训练样本;

步骤三:根据所述训练样本构建多任务生成对抗网络训练样本;所述多任务生成对抗网络训练样本中包括正训练样本和负训练样本;

步骤四:将截取产生的训练样本作为高分辨率图像,利用双线性插值法将所述高分辨率图像下采样4倍获得的图像作为相应的低分辨率图像;

步骤五:分别建立以低分辨率图像为输入的生成器网络和以高分辨率图像作为输入的具有分类分支和位置回归分支结构的鉴别器网络;

步骤六:利用所述生成器网络和鉴别器网络并结合步骤四所述正训练样本和负训练样本对多任务生成对抗网络进行训练;所述多任务生成对抗网络训练好后获得小物体检测网络;

步骤七:将待检测图片输入所述小物体检测网络中,所述小物体检测网络根据待检测图片中的小物体图像生成对应的高分辨的物体图像,进而完成真实场景下的小物体检测任务。

本实施例所述真实场景小物体检测方法,首先根据实际需求准备训练样本集,然后使用准备的训练样本集训练一个物体检测器,为了证明本发明的通用性,本实施例直接采用现有的任何一个物体检测器,如采用fpn-resnet101和mask-rcnn。之后,利用训练好的物体检测器产生候选区域,即对训练样本集中的每一张图像的物体位置进行预测,并且根据预测的物体位置信息截取物体图像和背景图像,得到的物体图像和背景图像将作为多任务生成对抗网络的训练样本。最后,利用这些截取的物体和背景图像作为训练样本来训练所提出的多任务生成对抗网络,其中生成器网络根据低分辨率的输入图像学习产生相应的高分辨率图像,鉴别器将根据最终生成的清晰的高分辨率图像给出一个更为准确的物体检测结果。

本实施例中,物体检测器的作用是为后面的多任务生成对抗网络产生候选区域,即截取产生训练样本。物体检测器的好坏将直接影响到多任务生成对抗网络训练样本的质量。所述物体检测器可以是现存的任何一个物体检测器,本发明将这个物体检测器作为一个基准线(baseline),在这个检测器的基础上使得物体检测的准确率做进一步的提升。因此,本实施例中采用fpn-resnet101或mask-rcnn作为物体检测器,其基础网络结构为resnet-50/resnet-101。

本实施例中所述生成器网络是一个深度学习网络,含有该生成器网络的多任务生成对抗网络可以根据小物体图像来生成一张相应的高清物体图像,解决现有的基于深度学习的物体检测方法不适用于小物体检测的问题,促进了小物体检测技术的发展,为物体检测技术从实验室到实际应用起到了一定的推动作用,同时,还为生成对抗网络找到了一个新的应用方向。

实施例2

本实施例是对实施例1所述真实场景小物体检测方法的进一步限定,所述训练样本集可以根据实际需求自行收集,进而构建相应物体类别数据库,也可以选用现有公开的物体检测数据库,如pascalvoc,microsoftcoco等数据库。为了方便与其它现有方法进行比较,本实施例采用microsoftcoco数据集作为训练样本集,并将microsoftcoco数据集中的115k数据作为训练集样本,将microsoftcoco数据集中的5k数据作为验证集样本,将microsoftcoco数据集中的5k数据作为测试集样本;

所述训练样本中的物体图像根据面积大小分为较大、中等和较小三个大小档次,其中较大的物体图像是指面积大于96×96像素的图像;中等的物体图像是指面积大于32×32像素,小于96×96像素的图像;较小的图像是指面积小于32×32像素的图像。

本实施例的训练样本集的选择、内部样本类型的划分以及图像面积大小的分类有效克服真实场景下小物体检测困难问题,进而提高真实场景下物体检测的准确率。

实施例3

本实施例是对实施例1或2所述真实场景小物体检测方法的进一步限定,步骤二所述物体检测器为多任务生成对抗网络截取产生训练样本的具体过程包括:

第一步:利用所述物体检测器对训练样本集中的每一张图像进行物体位置信息预测;

第二步:在每一张进行了物体位置信息预测后的图像中截取600个最有可能包含物体的区域图像;

第三步:将所截取的图像区域进行保存,保存后的区域图像作为所述多任务生成对抗网络的训练样本。

本实施例中利用物体检测器对microsoftcoco训练样本集中的每一张图像进行物体位置信息预测,并从每一张图像中截取产生600个最有可能包含物体的区域并保存,将这些保存的图像作为多任务生成对抗网络的训练样本;对于测试样本,本实施例同样利用被选择的检测器来处理测试集中的每一张图像,并从每一张图像中截取产生600个最有可能包含物体的区域并保存,这些保存的图像最后通过多任务生成对抗网络中的生成器网络得到相应的高分辨率(4倍上采样)图像,然后通过鉴别器判断出这些高分辨率的图像的具体类别和对物体的位置进行进一步的微调,进而实现真实场景下的小物体检测的功能。

实施例4

本实施例是对实施例1所述真实场景小物体检测方法的进一步限定,步骤三所述多任务生成对抗网络训练样本的构建过程为:求取所述训练样本中每一个区域图像与图像中标注的物体位置真值的重叠面积,如果所述重叠面积大于0.5则将所述区域图像标记为物体图像;所述物体图像即为正训练样本;如果所述重叠面积小于0.45则将所述区域图像标记为背景图像;所述背景图像即为负训练样本;所述正训练样本和背景图像即为所述多任务生成对抗网络训练样本。

实施例5

本实施例是对实施例1所述真实场景小物体检测方法的进一步限定,步骤五所述生成器网络为深度学习网络,所述生成器网络的结构包括:卷积层一、卷积层二、卷积层三、反卷积层一、反卷积层二和卷积层四;所述卷积层一的数据输入端即为生成器网络的数据输入端;所述卷积层一的数据输出端与所述卷积层二的数据输入端相连;所述卷积层二的数据输出端与层三的数据输入端相连;所述卷积层三的数据输出端与所述反卷积层一数据输入端相连;所述反卷积层一的数据输出端与所述反卷积层二数据输入端相连;所述反卷积层二的数据输出端与所述卷积层四的数据输入端相连。

生成器网络的作用是根据输入的低分辨率的图像训练学习生成相应的高分辨率图像,进而使得鉴别器网络通过生成的高分辨率图像更加容易地判定输入的低分辨率图像的类别和进行位置信息回归。

实施例6

本实施例是对实施例5所述真实场景小物体检测方法的进一步限定,所述卷积层二包括5层卷基层;所述反卷积层一和反卷积层二具有2倍的上采样率。本实施例中生成器网络是一个深度学习网络,网络结构如表1所示,其中包含两个反卷积层,每个反卷积层实现了2倍上采样,这样整个生成器网络的输出图像的分辨率将是输入图像的4倍。

表1

表1多任务生成对抗网络网络结构图,其中“conv”指的是卷积层,“x5”指的是有5个相同的卷基层,”de-conv”指的是反卷基层,”x2”是指2倍的上采样率,“fc”指的是全连接层

实施例7

本实施例是对实施例1所述真实场景小物体检测方法的进一步限定,所述鉴别器网络采用尾端连接有三个平行设置的全连接层的resnat50/resnet101网络;所述三个全连接层分别为全连接层fcgan、全连接层fccls和全连接层fcreg,所述鉴别器网络结构如表1所示。

鉴别器网络的主网络结构采用resnat50/resnet101网络。为了实现鉴别网络同时可以判别输入图像是真实的高分辨率图像还是有生成器合成的图像(真/假),判定物体的具体类别,和对物体的位置进行进一步微调,本发明在主网络resnet的基础上,增加了三个平行的全连接层(fully-connectedlayer),fcgan,fccls和fcreg,其中fcgan的作用为判别输入图像为真/假,fccls的作用为判别物体的类别,fcreg的作用是对物体的位置进行进一步的微调。

实施例8

本实施例是对实施例1所述真实场景小物体检测方法的进一步限定,步骤六所述多任务生成对抗网络的训练方法为通过让生成器网络和鉴别器网络相互博弈、交替优化的方式进行学习训练整个多任务生成对抗网络,具体的训练过程为:

步骤1:在低分辨率图像中,所述生成器网络随机采样一个低分辨率图像作为输入,所述生成器网络利用所述低分辨率图像学习生成相应的一张高分辨率图像作为结果输出;所述生成器网络通过尽量模仿高分辨率样本集中的真实样本的方式来欺骗鉴别器网络中高分辨率图像真假的判断环节;

步骤2:将真实的高分辨率图像或所述生成器网络生成的高分辨率图像输入至鉴别器网络中,所述鉴别器网络将所述生成器网络生成的高分辨率图像分辨出来;

步骤3:所述鉴别器网络判断分辨出来的所述生成的高分辨率图像的类别,并对所述高分辨率图像中物体位置进行回归预测;

步骤4:重复步骤1至步骤3的环节,使生成器网络和鉴别器网络相互对抗、不断调整参数,最终使鉴别器网络无法判断出高分辨率的图像是生成器网络输出的高分辨率图像还是真实的训练样本中的高分辨率图像;当生成器网络生成的清晰的高分辨图像达到鉴别器网络无法判别真假的程度,同时,鉴别器网络准确分类输入高分辨率图像的类别并进一步进行位置回归时,所述多任务生成对抗网络训练完成,获得所述小物体检测网络

通过上述步骤训练的小物体检测网络,不受现有物体检测方法容易受到尺度、遮挡、光照等因素的影响而导致准确率低下的限制,可以实现真实场景下的小物体检测任务。

实施例9

本实施例是对实施例1所述真实场景小物体检测方法的进一步限定,为了使生成网络产生的图像更加清晰,更加便于小物体的检测,本实施例对传统生成对抗网络的目标函数做了修改,即将分类损失函数以及位置回归损失函数引入到整个网络的目标函数中,改进后的所述目标函数的形式如下:

其中,

其中,(x,y)为被截取训练样本左上角的像素坐标,(w,h)表示取向区域的宽和高;;θ,ω分别为鉴别器和生成器的网络参数;dθ,gω分别是鉴别器和生成器的功能函数,分别是输入的低分辨率图像和对应的高分辨率图像,α是目标函数中对抗损失函数与像素级损失函数的权值分配系数,n是训练样本总数vi=(vi,x,vi,y,vi,w,vi,h)是物体位置真值信息的回归目标值,ti=(ti,x,ti,y,ti,w,ti,h)是预测的物体位置信息,分别表示地i个高分辨率真值图像和生成的高分辨率图像,当ui≥1时,[ui≥1]等于1,否则等于0,β,γ分别是分类损失函数和位置回归损失函数的权重系数。

本发明还将鉴别器网络中的分类损失函数和位置回归损失函数引入到目标函数中,使得生成器网络生成的高分辨率图像包含更多的细节信息、更加清晰,从而使得鉴别器网络更加容易对物体进行分类和对物体的位置进行进一步的微调。

实施例10

本实施例是对实施例1所述真实场景小物体检测方法的进一步限定,所述生成器网络的网络参数从原始初始化开始训练,采用标准差为0.02的高斯分布来初始化卷积核参数,生成器网络的偏差初始化为0;所述鉴别器网络的网络参数利用在imagenet数据集上预训练好的的模型进行初始化,对于鉴别器网络中的全连接层fcgan,fccls,和fcreg,用标准差为0.1的高斯分布进行初始化,同时,鉴别器网络的偏差初始化为0;在训练所述多任务生成对抗网络的整个网络时,每个mini-batch包含128张图像,正训练样本和负训练样本比例为1:1,总迭代次数为80k,前40k迭代的学习率为0.01,后40k次迭代的学习率为0.001。

实验证明本发明所述一种基于对任务生成对抗网络的真实场景小物体检测方法经过实验验证后可以确定所述验证方法能够实现物体定位的高精度和高准确性,同时检测效率高,表2为实验结果对比数据,其中ap是平均准确率(averageprecision),是对训练网络的优劣进行评估的一个指标,ap_s/ap_m/ap_l分别表示对small/medium/large物体的平均准确率。从对比数据中可以看出,本发明提出的“基于多任务生成对抗网络的真实场景小物体检测方法”比目前最先进的物体检测器(mask-rcnn)的准确率有一个很大的提升,small/medium/large上分别提高2.6%/1.0%/1.4%。此外,与其他最新的物体检测器进行比较,本发明在small/medium/large图像集中的检测结果都要优于其他方法,均达到了目前最高的检测结果24.7%/44.2%/52.6%,特别是针对面积小于32*32像素间的小物体检测的准确率率的提升超过了2%,从而证明了本发明提出的基于多任务生成对抗网络在小物体检测上的有效性。图5、图6、图7、图8为实验结果图,其中绿色的检测框为人为标注的物体的真值位置(ground-truthboundingboxes),红色的检测框为“基于多任务生成对抗网络的真实场景小物体检测方法”的检测结果,从图中看出即使是在物体非常小、背景复杂、受光照,遮挡等因素影响的条件下,本发明提出的方法几乎可以找到全部的待检测物体。

表2实验结果对比数据

虽然本发明已以较佳的实施例公开如上,但其并非用以限定本发明,任何熟悉此技术的人,在不脱离本发明的精神和范围内,都可以做各种改动和修饰,因此本发明的保护范围应该以权利要求书所界定的为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1