基于交替反卷积与卷积的特征图增强的网络结构优化方法与流程

文档序号:15449557发布日期:2018-09-14 23:48阅读:2076来源:国知局

本发明涉及的是一种目标检测领域的技术,具体是一种基于交替反卷积与卷积的特征图增强的图像检测优化方法。



背景技术:

现有目标检测算法中最为著名的dpm算法,通过设计不同的特征提取模板,然后融合这些特征,对目标进行传统分类与回归。然而,近年来随着大数据和计算能力的大幅提升,深度学习得到高速发展,其在计算机视觉上取得的效果大幅优于传统的算法。深度学习模型能够自动地学习不同抽象特征,避免了传统的人工设计特征的繁杂。

在深度学习领域,基于卷积神经网络的目标检测算法层出不穷。从最早的r-cnn到后来的fastr-cnn、fasterr-cnn、yolo、ssd等一系列改进算法,目标检测的精度和速度也向前迈进了一大步。但目标检测算法仍然有不足之处像r-cnn系列,分为两步检测计算量大;而yolo、ssd虽然一步检测速度较快,但是精度还有待进一步提高。目前主流检测器依然对于小目标以及目标遮挡情况难以检测,仍有提高空间。大多数检测器对于小目标、目标遮挡,未能检测或不够准确,主要是因为用来回归目标框及分类的特征还不够丰富。丰富的特征必须对于不同尺度的目标,特征的分辨率需足够合适并且应该既包含足够抽象的特征,又应包含一些上下文场景特征。



技术实现要素:

本发明针对现有技术存在的上述不足,提出一种基于交替反卷积与卷积的特征图增强的图像检测优化方法,通过在主流的网络结构中某一层分支出一个交替反卷积与卷积的残差模块,用来提取局部特征,与当前层池化后的下一层反卷积后的全局特征进行融合,使融合后的丰富特征既包含了局部特征,又包含了全局特征,同时扩大了特征图的分辨率,有益于保留图像中细节特征。通过本发明改进的网络结构,可以很容易移植到主流的目标检测网络架构中,很大程度增强特征,且保留图像中小目标特征,促进检测效果,即使在低分辨率的图像输入条件下,依然取得优异的效果。

本发明是通过以下技术方案实现的:

本发明涉及一种基于交替反卷积与卷积的特征图增强的图像检测优化方法,通过交替反卷积与卷积进行特征图增强,使用卷积神经网络中不同的层,预测不同尺度的目标,并重新构建用来进行目标分类与回归的预测层,最后经网络训练后得到目标检测器进行图像检测并得到优化后的目标框。

所述的特征图增强,即通过交替反卷积和卷积结构实现,具体为:当第k层特征维度为n×m×c,一支路经过正常的vgg-16结构的三次连续的卷积后,特征维度变为然后再进行反卷积操作,使其特征维度变为n×m×c′;另一支路两次交替进行反卷积与卷积操作,第一次交替反卷积与卷积操作设置特征通道数为第二次反卷积与卷积操作设置特征通道数为得到的特征维度为最后两个支路的特征融合,得到的特征维度为再用其来进行目标的分类与回归。

本发明中的特征图增强网络结构,采用基于vgg-16网络结构的ssd(singleshotmultiboxdetector)目标检测器作为基础,将其嵌入本发明的特征图增强结构。

优选地,为了使网络连贯且数据流通更好,在下一层的特征构造过程中,在之前的特征维度为n×m×c′的反卷积层后面添加了一个过渡卷积层并加上交替反卷积与卷积操作,再一次按照之前的结构操作,构成8字形结构;整个特征构造过程中针对不同的层进行上述结构操作,使得整体结构构成类双螺旋结构,充分关联不同层的特征,并保持特征足够大的分辨率。技术效果

与现有技术相比,本发明在输入的图像分辨率较低的情况下,依然保留特征的分辨率需足够合适,来针对不同尺寸的目标,显著促进小目标的检测;本发明通过增强特征,使其既包含足够抽象的特征,又应包含一些上下文场景特征,提高目标框的精准度。本发明可以很容易移植到主流的目标检测网络架构中,很大程度增强特征,使特征更加丰富,使目标检测效果更加健壮、精准。

附图说明

图1为本发明交替反卷积与卷积特征图增强结构示意图;

图2为本发明连续两个交替反卷积与卷积特征图增强结构构成类“8”形结构;

图3为本发明整个网络训练结构;

图4为本发明整个网络测试流程;

图5为本发明实施例效果图。

具体实施方式

如图1所示,本实施例通过交替反卷积与卷积进行特征图增强,使用卷积神经网络中不同的层,预测不同尺度的目标,并重新构建用来进行目标分类与回归的预测层,最后经网络训练后得到目标检测器进行图像检测并得到优化后的目标框。

本实施例中的卷积神经网络的训练和测试数据,采用但不限于kitti数据库实现,该数据库包括:汽车、行人、骑自行车的人等。按照ssd(singleshotmultiboxdetector)目标检测器里的方法,对训练数据做了数据增广操作,增加网络模型对不同尺度的目标的泛化能力,提升目标检测效果。

所述的增广操作,采用但不限于liuw,anguelovd,erhand,etal.在《ssd:单次多盒目标检测器》(ssd:singleshotmultiboxdetector[c]//europeanconferenceoncomputervision.springer,cham,2016:21-37.)中提出的方法实现。

所述的特征图增强,当第n层的特征其中:为特征经过某一层的非线性变换;增加交替反卷积和卷积增强后的第n层的特征为:

其中:表示通过交替反卷积和卷积等非线性操作,增强后的特征包括两部分,一部分为原始的特征另一部分为新增添的特征表示反卷积操作,为了保证特征图有适当的分辨率;k表示从第k层特征开始进行目标分类与回归。

所述的构建用来进行目标分类与回归的预测层,具体是指:通过conv3层与conv4层构建conv3v4层、通过conv5层与fc7层构建conv5fc7层、通过fc7层与conv6层构建fc7conv6层,越底层的层用于预测越大的目标,即选取conv3v4层、conv5fc7层、fc7conv6层、conv7层、conv8层、conv9层、pool6用来回归目标框与分类。

优选考虑到网络效率,conv7层、conv8层、conv9层、pool6选择性地不进行特征加强。

所述的预测层中的默认框尺度为:

优选为了预测更小目标,本实施例中设置smin=0.1,smax=0.9,其中k表示第几个预测层,m表示预测层的总个数。

所述的网络训练,采用但不限于liuw,anguelovd,erhand,etal.在《ssd:单次多盒目标检测器》(ssd:singleshotmultiboxdetector[c]//europeanconferenceoncomputervision.springer,cham,2016:21-37.)中提出的方法实现;该网络训练采用的损失函数包括定位损失和分类损失,具体为:其中:n是与真实框相匹配的默认框的个数,lloc(x,l,g)是fastr-cnn中smoothl1loss,回归boundingboxes的中心位置,以及width、height;lconf(x,c)是softmaxloss,输入为每一类的置信度;权重项α,设置为1。

所述的图像检测是指:网络训练完成后输入任意一张图片,然后提取conv3v4层、conv5fc7层、fc7conv6层、conv7层、conv8层、conv9层、pool6层的特征,分别预测不同尺度的目标框,然后进过非极大抑制(nms)操作得当最终的目标框。

所述的非极大抑制操作,采用neubecka,goollv.在efficientnon-maximumsuppression[c]//internationalconferenceonpatternrecognition.ieeecomputersociety,2006:850-855.中提出的方法。

如图4所示,为本实施例涉及的基于交替反卷积与卷积的特征图增强的改进网络结构,包括:conv4_3、conv5_3、fc7特征交替反卷积和卷积特征加强模块、第七至第十卷积层以及非极大抑制层,其中:conv4_3、conv5_3、fc7、conv6_2卷积层分别通过交替反卷积和卷积特征加强模块相连并传输特征图信息,conv7_2、conv8_2、conv9_2、pool6之间依次相连并传输特征信息,最后不同层的特征进过卷积直接回归目标的位置和类别,回归目标框的位置的卷积层与非极大抑制层相连并过滤掉无关目标框信息。

本实施例选取某摄像头监控视频,对每一帧图像都进行车辆和行人进行检测,具体包含以下步骤:

第一步:图像调整大小:输入任意大小的图像到训练好的目标检测网络中,首先都将图像大小调整为512×512。

第二步:特征提取与目标框回归和分类:分别提取conv3v4层、conv5fc7层、fc7conv6层、conv7层、conv8层、conv9层、pool6层的特征,分别用一系列卷积操作直接进行目标框回归和分类。

对于一个大小为m*n、c通道的特征层,使用3*3的卷积核进行预测,在某个位置上预测出一个值,该值可以是某一类别的得分,也可以是相对于默认框的偏移量,并且在图像的每个位置都将产生一个值。

第三步:输出检测框:由于预测框许多框之间交叉,预测框需使用nms来选取哪些在一定领域内置信度最高的框,同时抑制置信度低的框。本实施例中设置nms的置信度阈值为0.45,同时设置每个框的置信度阈值需大于0.24,最后输出每个目标的在原图中的左上角和右上角坐标以及其置信度,其效果如图5所示。

上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1