基于交并比估计的空间注意力强化学习跟踪方法

文档序号:26142661发布日期:2021-08-03 14:27阅读:84来源:国知局
基于交并比估计的空间注意力强化学习跟踪方法

本发明属于本发明属于计算机视觉技术领域,具体涉及数字图像的目标跟踪技术领域中的基于交并比估计的空间注意力强化学习跟踪方法。



背景技术:

近年来,深度学习和强化学习被广泛应用在计算机视觉任务中,其中深度学习所提供的强大的特征表达能力为数字图像处理及模式识别任务奠定了重要基础,在此基础之上,研究者们提出了多种不同的深度网络架构来适应不同的计算机视觉任务。d.danelljan等人[1]研究了卷积网络特征对目标跟踪任务的影响,他们发现第一层的激活具有比其他更深层更好的跟踪性能。b.luca等人[2]提出了孪生网络的跟踪方法,作者将目标跟踪理解为一种在线匹配问题,跟踪的实质即为将目标模板图像在搜索图像中进行滑动匹配,具有最高相似度的图像块即为当前帧中的目标,为实现这样的思想,作者提出利用两个具有相同结构、相同参数的深度卷积网络分别对目标模板图像和搜索图像提取特征,然后采用互相关(cross-correlation)实现高效的滑动窗口匹配.h.nam等人[3]提出了一种多域训练的深度网络(multi-domainconvolutionalneuralnetworks,mdnet)模型,作者通过多域网络来解决面向跟踪任务的网络训练时所遇到的目标物体和背景物体的类别混淆问题,相比孪生网络,作者采用更新的vgg[4]深度网络作为特征提取的骨干网络并取得了良好的效果。为了在深度网络训练的过程更好地调整网络初始参数,e.park等人[5]利用元学习(meta-learning)[6]思想,通过两次梯度计算加快模型收敛速度。j.choi等人[7]从另一个角度来应用元学习思想,在提出的跟踪算法中,作者通过元学习快速捕获目标物体的外观特信息以实现特征融合,将最具有判别性的特征保留下来,从而提升跟踪质量.z.zhu等人[8]受到深度光流网络(flownet)[9]的启发,提出利用深度光流捕获目标物体的运动特征。s.pu等人[10]提出了一种基于互学习思想的跟踪算法,该算法通过网络反向传播的偏导数来计算图像特征的注意力图,并将其作为正则项来迭代训练深度网络.。s.dong等人[11]提出了一种三元损失(tripleloss)的跟踪算法,作者在所提出的跟踪算法中通过三元损失以实现更多样本的训练,从而提供更优质的图像表示。为解决多域网络跟踪算法的实时性较弱的问题,y.li等人[12]提出了一种对图像进行相似变换以进行匹配的方法以解决物体的角度变化问题,所提出的跟踪算法可以更好地估计物体的矩形边框。为了进一步深度学习跟踪器的判别能力,g.bhat等人[13]提出了一种模型预测方法来估计更加准确的目标物体外观模型,从而提升跟踪器的判别性能.y.wang等人[14]提出了一种基于数据增强的方法来补充训练数据,并且利用散列矩阵(hashmatrix)来降低深度图像特征的维度。n.wang等人[15]利用跟踪场景下的前后一致性,并采用多帧综合验证,提出了一种无监督的深度学习跟踪算法。

早期基于深度学习的跟踪算法中,网络参数主要通过图像分类任务训练后得到,这样会导致跟踪算法难以发挥其最大潜力,为解决这一问题,z.zhu等人[16]提出了一种联合卷积跟踪器(unifiedconvolutionaltracker,uct),在提出的算法中,该框架可以在跟踪的过程中同时学习物体的特征表示。在基于深度学习的跟踪算法中,一个突出问题是训练的目标图像数量与背景图像数量存在极大的不平衡,这容易导致模型退化,为解决该问题,x.lu等人[17]提出了一种收缩损失(shrinkageloss),通过该损失方法降低简单样本(easysamples)的重要性,维持困难样本(hardsamples)的重要性.紧接着,为了解决基于区域建议网络跟踪算法在干扰场景下性能退化的问题,z.zhu等人[18]提出了一种对干扰敏感的跟踪算法,在提出的算法中,作者对滑动窗口匹配产生的响应图(responsemap)进行干预,抑制目标物体周围干扰因素的部分,所提出的算法被称为dasiamrpn跟踪算法。h.fan等人[19]为了解决基于区域建议网络在干扰物和物体显著尺度变化下的退化问题,提出了一种将区域建议网络进行级联的思想,通过更加合理的时序来应对困难样本。z.zhang等人[20]在孪生深度网络跟踪的基础上,通过研究网络卷积结构对跟踪性能的影响,提出了一种更深和更宽(deeperandwider)的目标跟踪网络结构。自2017年开始,在基于深度学习的跟踪方法中,研究者们也开始将目光投向深度强化学习(deepreinforcementlearning)[21],通过强化学习使跟踪器学会捕捉目标物体的运动信息,这样可以在复杂环境下更好地应对物体受到干扰的现象。s.yun等人[22]提出了一种动作驱动的强化学习跟踪方法,作者在提出的跟踪算法中将强化学习用于对物体的定位,在这个过程中,作者利用策略梯度方法对网络进行训练使跟踪器学习对目标物体进行定位.j.supancic等人[23]等人利用策略学习思想,将目跟踪看作一个可观察的动态决策过程,在跟踪过程中动态决定模型更新,而不再使用传统跟踪算法中普遍采用的启发式更新方法。b.zhong等人[24]采用由粗到细的思想利用深度强化学习对目标物体进行跟踪,作者将运动搜索作为强化学习中的动作决策问题来理解,所提出的跟踪算法利用基于递归卷积神经网络(recurrentconvolutionalneuralnetwork,rcnn)[25]的深度q网络来有效对目标的搜索策略.为进一步提升滑动窗口匹配的实时性,z.teng等人[26]将跟踪问题看作为一个三步决策过程,作者使用q-learning来学习跟踪器的定位动作,并且以合作的方式来训练模型。

现有的目标跟踪技术主要存在以下几个问题:

1.在当前大多数基于深度强化学习的跟踪方法中,研究者们普遍将重点放在了确定目标的中心位置上,对目标在每一帧中的边框如何精确界定这一问题尚未展开足够的研究。而在目标跟踪任务中,确定目标物体在每一帧中的矩形边框是一项非常重要的任务,它关系到如何表达目标物体的所占据的空间尺度,仅仅利用固定宽高比缩放的方式难以适应复杂情况下的物体形变。

2.在复杂环境下,被跟踪物体的空间上下文往往充斥着大量的噪声信号,特别是纹理丰富的高频信号,它们会对跟踪器产生诸如相似纹理、相似形态方面的干扰,其提供的图像表征往往与目标物体近似。而当前研究界对这类问题的研究尚不够深入,算法容易发生错误判断,将背景的噪声当作待跟踪的目标物体,影响跟踪器对目标位置的估计,造成跟踪发生偏移甚至是目标丢失。

3.当前的目标跟踪算法中,大多数算法仅仅输出目标的坐标及对应估计的矩形边框,然而在实际应用中,作为计算机视觉中的重要任务,目标跟踪和物体分割的联系非常紧密。目标跟踪可以为视频中的物体输出估计的坐标及矩形框,而物体分割则可以基于此输出更加精确的、属于目标物体的像素级区域。如何能够利用物体分割的结果来提升跟踪任务的性能,亦是一个对研究界非常有帮助的课题。

[文献1]m.danelljan,g.f.s.khan,andm.felsberg.convolutionalfeaturesforcorrelationfilterbasedvisualtracking.in2015ieeeinternationalconferenceoncomputervisionworkshop(iccvw),pages621–629,dec2015.

[文献2]lucabertinetto,jackvalmadre,f.henriques,andreavedaldi,andphiliph.s.torr.fully-convolutionalsiamesenetworksforobjecttracking.inganghuaandhervéjégou,editors,computervision–eccv2016workshops,pages850–865,cham,2016.springerinternationalpublishing.

[文献3]h.namandb.han.learningmulti-domainconvolutionalneuralnetworksforvisualtracking.in2016ieeeconferenceoncomputervisionandpatternrecognition(cvpr),pages4293–4302,june2016.

[文献4]karensimonyanandandrewzisserman.verydeepconvolutionalnetworksforlarge-scaleimagerecognition.ininternationalconferenceonlearningrepresentations,2015.

[文献5]eunbyungparkandalexanderc.berg.meta-tracker:fastandrobustonlineadaptationforvisualobjecttrackers.invittorioferrari,martialhebert,cristiansminchisescu,andyairweiss,editors,computervision–eccv2018,pages587–604,cham,2018.springerinternationalpublishing.

[文献6]brunoalmeidapimentelandandréc.p.l.f.decarvalho.ameta-learningapproachforrecommendingthenumberofclustersforclusteringalgorithms.knowledge-basedsystems,page105682,2020.

[文献7]j.choi,j.kwon,andk.m.lee.deepmetalearningforreal-timetarget-awarevisualtracking.in2019ieee/cvfinternationalconferenceoncomputervision(iccv),pages911–920,oct2019.

[文献8]z.zhu,w.wu,w.zou,andj.yan.end-to-endflowcorrelationtrackingwithspatialtemporalattention.in2018ieee/cvfconferenceoncomputervisionandpatternrecognition,pages548–557,june2018.

[文献9]a.dosovitskiy,p.fischer,e.ilg,p.c.hazirbas,v.golkov,p.v.d.smagt,d.cremers,andt.brox.flownet:learningopticalflowwithconvolutionalnetworks.in2015ieeeinternationalconferenceoncomputervision(iccv),pages2758–2766,dec2015.

[文献10]shipu,yibingsong,chaoma,honggangzhang,andming-hsuanyang.deepattentivetrackingviareciprocativelearning.ins.bengio,h.wallach,h.larochelle,k.grauman,n.cesa-bianchi,andr.garnett,editors,advancesinneuralinformationprocessingsystems31,pages1931–1941.curranassociates,inc.,2018.

[文献11]xingpingdongandjianbingshen.tripletlossinsiamesenetworkforobjecttracking.invittorioferrari,martialhebert,cristiansminchisescu,andyairweiss,editors,computervision–eccv2018,pages472–488,cham,2018.springerinternationalpublishing.

[文献12]yangli,jiankezhu,stevenhoi,wenjiesong,zhefengwang,andhantangliu.robustestimationofsimilaritytransformationforvisualobjecttracking.aaai2019:thirty-thirdaaaiconferenceonartificialintelligence,33(1):8666–8673,2019.

[文献13]g.bhat,m.danelljan,l.vangool,andr.timofte.learningdiscriminativemodelpredictionfortracking.in2019ieee/cvfinternationalconferenceoncomputervision(iccv),pages6181–6190,oct2019.

[文献14]yongwang,xianwei,xuantang,haoshen,andluding.cnntrackingbasedondataaugmentation.knowledge-basedsystems,page105594,2020.

[文献15]n.wang,y.song,c.ma,w.zhou,w.liu,andh.li.unsuperviseddeeptracking.in2019ieee/cvfconferenceoncomputervisionandpatternrecognition(cvpr),pages1308–1317,june2019.

[文献16]z.zhu,g.huang,w.zou,d.du,andc.huang.uct:learningunifiedconvolutionalnetworksforreal-timevisualtracking.in2017ieeeinternationalconferenceoncomputervisionworkshops(iccvw),pages1973–1982,oct2017.

[文献17]xiankailu,chaoma,bingbingni,xiaokangyang,ianreid,andming-hsuanyang.deepregressiontrackingwithshrinkageloss.invittorioferrari,martialhebert,cristiansminchisescu,andyairweiss,editors,computervision–eccv2018,pages369–386,cham,2018.springerinternationalpublishing.

[文献18]zhengzhu,qiangwang,boli,weiwu,junjieyan,andweiminghu.distractor-awaresiamesenetworksforvisualobjecttracking.invittorioferrari,martialhebert,cristiansminchisescu,andyairweiss,editors,computervision–eccv2018,pages103–119,cham,2018.springerinternationalpublishing.

[文献19]h.fanandh.ling.siamesecascadedregionproposalnetworksforreal-timevisualtracking.in2019ieee/cvfconferenceoncomputervisionandpatternrecognition(cvpr),pages7944–7953,june2019.

[文献20]z.zhangandh.peng.deeperandwidersiamesenetworksforreal-timevisualtracking.in2019ieee/cvfconferenceoncomputervisionandpatternrecognition(cvpr),pages4586–4595,june2019.

[文献21]y.keneshloo,t.shi,n.ramakrishnan,andc.k.reddy.deepreinforcementlearningforsequence-to-sequencemodels.ieeetransactionsonneuralnetworksandlearningsystems,pages1–21,2019.

[文献22]s.yun,j.choi,y.yoo,k.yun,andj.y.choi.action-drivenvisualobjecttrackingwithdeepreinforcementlearning.ieeetransactionsonneuralnetworksandlearningsystems,29(6):2239–2252,june2018.

[文献23]j.supancicandd.ramanan.trackingasonlinedecision-making:learningapolicyfromstreamingvideoswithreinforcementlearning.in2017ieeeinternationalconferenceoncomputervision(iccv),pages322–331,oct2017.

[文献24]b.zhong,b.bai,j.li,y.zhang,andy.fu.hierarchicaltrackingbyreinforcementlearning-basedsearchingandcoarse-to-fineverifying.ieeetransactionsonimageprocessing,28(5):2331–2341,may2019.

[文献25]l.mou,l.bruzzone,andx.x.zhu.learningspectral-spatial-temporalfeaturesviaarecurrentconvolutionalneuralnetworkforchangedetectioninmultispectralimagery.ieeetransactionsongeoscienceandremotesensing,57(2):924–935,feb2019.

[文献26]zhuteng,baopengzhang,andjianpingfan.three-stepactionsearchnetworkswithdeepq-learningforreal-timeobjecttracking.patternrecognition,101:107188,2020.



技术实现要素:

为了解决上述技术问题,本发明提出了基于交并比估计的空间注意力强化学习跟踪算法。

本发明所采用的技术方案是:一种基于交并比估计的空间注意力强化学习跟踪算法,包含强化学习预定位模块、交并比估计模块和空间注意力模块三个部分。这三个部分的网络分别独立进行端到端训练,从而可以更加灵活地适应它们各自的任务。本发明将基于强化学习的视频目标跟踪理解为一个二阶段问题,首先利用强化学习预定位模块对目标运动信息的捕捉能力来确定目标物体的中心点坐标,然后利用交并比估计模块进一步确定物体的边框,并且,在该过程中,本发明提出利用基于物体分割的方法来实现可变形空间注意力以抑制背景噪声,这既是本发明提出算法与相关工作不同的地方,也是本发明的创新之处。本发明提出利用基于物体分割网络的方法来学习目标物体的空间注意力,在分割区域的基础上融合先验图像分布来适应物体运动过程中的形变,从而更好地抑制背景噪声.在多个数据集上进行的大量实验表明,所提出的跟踪算法与当前领先的跟踪算法相比取得了富有竞争力的结果。在跟踪任务中,本发明主要包括如下几个步骤:

步骤1,初始化网络模型,包括强化学习预定位模块、交并比估计模块和空间注意力模块;

所述强化学习预定位模块包括两组并行的主干网络和卷积模块,然后将经过卷积模块处理后得到的特征向量进行拼接,输入到全连接层中,实现目标物体的预定位;

步骤2,将模板帧和检测帧第t帧分别输入到主干网络中,得到模板帧特征图和检测帧特征图,将模板帧特征图输入到卷积模块,得到模板帧特征向量;

步骤3,将检测帧第t-1帧输入到空间注意力模块得到可变形空间注意图;

步骤4,将可变形空间注意图与检测帧特征图进行逐像素相乘,然后输入到卷积模块中得到检测帧特征向量;

步骤5,将模板帧特征向量与检测帧特征向量进行拼接,然后经过一个全连接层中,实现目标物体的预定位,求出目标物体的中心点的位置偏移;

步骤6,将目标物体的中心点的位置偏移输入到交并比估计模块,利用随机方法在目标物体中心点位置生成多个具有不同宽高比例的矩形框,这些矩形框均属于候选框,然后计算得出这些候选框的iou得分,并根据iou得分进行排序,得到iou得分最高的矩形框,获得目标物体的宽和高。

进一步的,所述主干网络结构包括两个结构相同的卷积池化模块,卷积池化模块包括一个卷积层、一个relu层、一个局部响应归一化层和一个池化层。

进一步的,采用基于演员actor-评论家critic模式的ddpg算法对强化学习预定位模块进行训练,actor是跟踪定位动作的执行者,critic是对动作执行效果的评价者,首先定义奖励函数为:

其中,p表示模块定位到的目标位置,g表示训练数据中对应的groundtruth;函数iou(·)表示对actor标定的矩形框和ground-truth计算交并比数值,在具备ground-truth的情况下,计算模块预测矩形边框与真实标记边框之间的重叠率,以作为对actor奖励的依据,若重叠率大于某个阈值,critic就认为actor跟踪到了目标,此时的奖励为+1;否则,critic认为actor丢失了目标,此时给予的奖励为-1;

根据ddpg算法,用l2loss为critic建立损失函数:

其中,n表示训练样本数目,表示actor对目标物体进行定位,g表示训练数据中的ground-truth,x代表模板帧,z代表检测帧第t帧。

进一步的,所述空间注意力模块包括掩码系数网络模块与可变形空间注意力模块,所述掩码系数网络模块通过fpn网络作为图像的特征提取骨干网络,得到的特征金字塔分别用于原型掩码和掩码系数的生成,具体实现过程如下:

首先根据融合强化学习预定位模块与交并比估计模块的定位结果进行采样,其公式为:

m'=samp(p,pad)

其中,p表示目标物体标定的位置,pad表示采样图像范围相对于目标物体的扩展参数,samp(·,·)表示采样过程,m′表示采样得到的图像块;

利用fpn进行特征提取的数学公式为:

m'1=ψ1(m')

其中函数ψ1(·)表示基于fpn的骨干网络对输入的图像块提取特征,m′1表示得到的特征金字塔;

将特征金字塔m′1分别输入到一个原型掩码分支和一个预测分支,分别产生关于采样图像的原型掩码m′ψp和掩码系数m′ψc,其公式为:

其中,函数ψ2(·)表示预测网络,其作用是产生掩码系数,函数ψ3(·)为原型网络,其作用是生成原型掩码;函数n(·)表示非极大值抑制操作,其作用是在生成掩码系数过程中消除冗余的检测边框,使保留的信息更加精确,从而有利于产生更加精确的掩码,提升跟踪过程中对目标物体的空间注意力;

得出的原型掩码m′ψp是一个多通道掩码张量,它包含有k个通道,不同的通道数据中表示不同层级语义信息;掩码系数m′ψc是一个包含k个元素的向量,每一个元素值表示原型掩码中相应通道的权重,然后利用通道级乘法对两者进行融合,使得出的掩码更为精确,其融合公式为:

其中符号表示通道级乘法,m′ψa表示融合后的掩码;

最后,对融合后的掩码m′ψa进行裁剪和阈值化处理,得到关于目标的分割掩码m′,其公式为:

其中,函数ψ4(·)表示对经过通道级乘法融合后的掩码进行的裁剪和阈值过滤操作。

进一步的,在得到目标物体的分割掩码后,利用可变形空间注意力模块对该分割掩码进行后处理生成最终的空间注意力图,具体流程如下;

首先为了适应目标物体在帧间可能存在的像素尺度放大现象,将分割掩码m′进行尺度变化,其公式为:

m's=resize(m',mag)

其中m′表示分割掩码,mag表示放大倍率参数,m′s表示扩大尺度后的分割掩码;

接下来,为适应目标物体在帧间可能产生的形变,对分割掩码进行边缘模糊操作,其数学公式为:

m'b=blur(ms',rad)

其中函数blur(·,·)表示模糊操作,参数rad表示配置的模糊半径,m′b表示模糊后的分割掩码;

为了使分割掩码能够适应物体形变,引入叶帕涅齐尼科夫核,利用该核所包含的物体像素区域所包含的先验信息与分割掩码进行融合,最终得到更加具有适应性的空间注意力图m,其数学公式为:

m=m'b⊙q

在上式中,m表示最终的空间注意力矩阵,符号⊙表示矩阵元素级乘法,q表示叶帕涅齐尼科夫核,在一维数据下,其计算公式为:

其中,核函数的平滑程度是由参数σ表征的,r指核函数的输入,为一维数据;在图像领域,将其推广到二维表达式,其计算公式为:

其中,x,y代表图像中像素点坐标。

进一步的,所述交并比估计模块采用了孪生网络的基础结构,它包含有两个网络分支:目标模板图像分支和测试分支;对目标物体的中心点的位置偏移进行交并比估计采样作为测试分支输入,在目标模板图像分支,首先对模板图像和测试图像分别进行特征提取,并且进行池化操作得到测试图像特征图后,网络进一步将数据进行前向计算,通过全连接网络层对测试图像特征图进行处理,得到调制向量,该调制向量的作用是为目标物体与待估计的图像建立起关联,形成调制特征,最后交并比估计模块对该特征数据进行最后一组前向计算,通过全连接层计算出最终的iou估计值。

本发明对所提出基于交并比估计的空间注意力强化学习跟踪方法进行了实现,并且在otb2013、otb50、otb100、uav123和vot2019这五个数据集上进行了验证。在这五个数据集上大量的实验表明,在跟踪精度上,本发明所提出的算法达到了先进水平。

附图说明

图1是本发明实施例总体网络结构示意图。

图2是本发明实施例强化学习预定位模块的骨干网络结构示意图。

图3是本发明实施例交并比的估计模块结构图。

图4是本发明实施例掩码系数的网络结构图。

图5是本发明实施例的空间注意力生成示意图。

图6是本发明实施例在多个视频序列中与其他多种先进的目标跟踪算法的跟踪效果对比。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明做进一步详细说明应当理解,此处描述的具体实施例仅用以解释本发明,并不用于限定本发明。

基于交并比估计的空间注意力强化学习跟踪算法,其主要思想是:将基于强化学习的视频目标跟踪理解为一个二阶段问题(twostageproblem),首先利用深度强化学习对目标运动信息的捕捉能力来确定目标物体的中心点坐标,然后利用交并比估计网络进一步确定物体的边框,并且,在该过程中,提出利用基于物体分割的方法来实现可变形空间注意力以抑制背景噪声。从而使得跟踪器在跟踪过程中有优秀的性能表现。总体网络结构图请见图1。

步骤1,初始化网络模型,包括强化学习预定位模块、交并比估计模块和空间注意力模块;

所述强化学习预定位模块包括两组并行的主干网络和卷积模块,然后将经过卷积模块处理后得到的特征向量进行拼接,输入到全连接层中,实现目标物体的预定位;

如图2所示,所述主干网络结构包括两个结构相同的卷积池化模块,卷积池化模块包括一个卷积层、一个relu层、一个局部响应归一化层和一个池化层。

步骤2,将模板帧和检测帧第t帧分别输入到主干网络中,得到模板帧特征图和检测帧特征图,将模板帧特征图输入到卷积模块,得到模板帧特征向量;

步骤3,将检测帧第t-1帧输入到空间注意力模块得到可变形空间注意图;

步骤4,将可变形空间注意图与检测帧特征图进行逐像素相乘,然后输入到卷积模块中得到检测帧特征向量;

步骤5,将模板帧特征向量与检测帧特征向量进行拼接,然后经过一个全连接层中,实现目标物体的预定位,求出目标物体的中心点的位置偏移;

步骤6,将目标物体的中心点的位置偏移输入到交并比估计模块,利用随机方法在目标物体中心点位置生成多个具有不同宽高比例的矩形框,这些矩形框均属于候选框,然后计算得出这些候选框的iou得分,并根据iou得分进行排序,得到iou得分最高的矩形框,获得目标物体的宽和高。

而且,采用基于演员actor-评论家critic模式的ddpg算法对强化学习预定位模块进行训练,actor是跟踪定位动作的执行者,critic是对动作执行效果的评价者,首先定义奖励函数为:

其中,p表示模块定位到的目标位置,g表示训练数据中对应的groundtruth;函数iou(·)表示对actor标定的矩形框和ground-truth计算交并比数值,在具备ground-truth的情况下,计算模块预测矩形边框与真实标记边框之间的重叠率,以作为对actor奖励的依据,若重叠率大于某个阈值,critic就认为actor跟踪到了目标,此时的奖励为+1;否则,critic认为actor丢失了目标,此时给予的奖励为-1;

根据ddpg算法,用l2loss为critic建立损失函数:

其中,n表示训练样本数目,表示actor对目标物体进行定位,g表示训练数据中的ground-truth,x代表模板帧,z代表检测帧第t帧。

如图4所示,所述空间注意力模块包括掩码系数网络模块与可变形空间注意力模块,所述掩码系数网络模块通过fpn网络作为图像的特征提取骨干网络,得到的特征金字塔分别用于原型掩码和掩码系数的生成,具体实现过程如下:

首先根据融合强化学习预定位模块与交并比估计模块的定位结果进行采样,其公式为:

m'=samp(p,pad)

其中,p表示目标物体标定的位置,pad表示采样图像范围相对于目标物体的扩展参数,samp(·,·)表示采样过程,m′表示采样得到的图像块;

利用fpn进行特征提取的数学公式为:

m'1=ψ1(m')

其中函数ψ1(·)表示基于fpn的骨干网络对输入的图像块提取特征,m′1表示得到的特征金字塔;

将特征金字塔m′1分别输入到一个原型掩码分支和一个预测分支,分别产生关于采样图像的原型掩码m′ψp和掩码系数m′ψc,其公式为:

其中,函数ψ2(·)表示预测网络,其作用是产生掩码系数,函数ψ3(·)为原型网络,其作用是生成原型掩码;函数n(·)表示非极大值抑制操作,其作用是在生成掩码系数过程中消除冗余的检测边框,使保留的信息更加精确,从而有利于产生更加精确的掩码,提升跟踪过程中对目标物体的空间注意力;

得出的原型掩码m′ψp是一个多通道掩码张量,它包含有k个通道,不同的通道数据中表示不同层级语义信息;掩码系数m′ψc是一个包含k个元素的向量,每一个元素值表示原型掩码中相应通道的权重,然后利用通道级乘法对两者进行融合,使得出的掩码更为精确,其融合公式为:

其中符号表示通道级乘法,m′ψa表示融合后的掩码;

最后,对融合后的掩码m′ψa进行裁剪和阈值化处理,得到关于目标的分割掩码m′,其公式为:

其中,函数ψ4(·)表示对经过通道级乘法融合后的掩码进行的裁剪和阈值过滤操作。

如图5所示,,在得到目标物体的分割掩码后,利用可变形空间注意力模块对该分割掩码进行后处理生成最终的空间注意力图,具体流程如下;

首先为了适应目标物体在帧间可能存在的像素尺度放大现象,将分割掩码m′进行尺度变化,其公式为:

m's=resize(m',mag)

其中m′表示分割掩码,mag表示放大倍率参数,m′s表示扩大尺度后的分割掩码;

接下来,为适应目标物体在帧间可能产生的形变,对分割掩码进行边缘模糊操作,其数学公式为:

m'b=blur(ms',rad)

其中函数blur(·,·)表示模糊操作,参数rad表示配置的模糊半径,m′b表示模糊后的分割掩码;

为了使分割掩码能够适应物体形变,引入叶帕涅齐尼科夫核,利用该核所包含的物体像素区域所包含的先验信息与分割掩码进行融合,最终得到更加具有适应性的空间注意力图m,其数学公式为:

m=m'b⊙q

在上式中,m表示最终的空间注意力矩阵,符号⊙表示矩阵元素级乘法,q表示叶帕涅齐尼科夫核,在一维数据下,其计算公式为:

其中,核函数的平滑程度是由参数σ表征的,r指核函数的输入,为一维数据;在图像领域,将其推广到二维表达式,其计算公式为:

其中,x,y代表图像中像素点坐标。

如图3所示,所述交并比估计模块采用了孪生网络的基础结构,它包含有两个网络分支:目标模板图像分支和测试分支;对目标物体的中心点的位置偏移进行交并比估计采样作为测试分支输入,在目标模板图像分支,首先对模板图像和测试图像分别进行特征提取,并且进行池化操作得到测试图像特征图后,网络进一步将数据进行前向计算,通过全连接网络层对测试图像特征图进行处理,得到调制向量,该调制向量的作用是为目标物体与待估计的图像建立起关联,形成调制特征,最后交并比估计模块对该特征数据进行最后一组前向计算,通过全连接层计算出最终的iou估计值。

应理解,上述实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围中。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1