基于上下文信息的视频遮挡检测系统及方法与流程

文档序号:14951014发布日期:2018-07-17 22:33阅读:413来源:国知局

本发明涉及一种检测系统及方法,具体地,涉及一种基于上下文信息的视频遮挡检测系统及方法。



背景技术:

一个典型的目标跟踪系统一般可分为五个部分:运动模型(motionmodel)部分、特征提取(featureextractor)部分、观测模型(observationmodel)部分、模型更新(modelupdater)部分、集成后处理(ensemblepost-processor)部分。

在视频序列的第一帧,目标的大小和位置由包围目标的边界框给出,这些信息用来初始化观测模型。从第二帧开始的每一帧依次到来,首先由运动模型根据目标可能的位置生成诸多候选者,这些候选者经过特征提取后,由观测模型给出每一个的是目标的概率。具有最大概率成为目标的候选者被断定为是新的目标所在。然后模型更新部分决定是否进行对观测模型的更新,若是则进行模型更新操作。最后,集成后处理部分对可能存在的多个跟踪的结果做综合处理产生最终结果。

在目标跟踪领域内得到广泛认可和使用的测试集中一共有50个视频序列,每个视频序列的每一帧中目标都被以边界框(包括位置和尺度)的形式标记出来作为groundtruth。为了更全面地测试和评价跟踪算法,每个序列都有若干个属性标签,表明该序列对跟踪算法的要求。属性标签一共分为11类,分别是:亮度变化(illuminationvariation,iv)、尺度变化(scalevariation,sv)、遮挡(occlusion,occ)、变形(deformation,def)、运动模糊(motionblur,mb)、快速移动(fastmotion,fb)、平面内旋转(inplanerotation,ipr)、平面外旋转(outofplanerotation,opr)、从视野中消失(outofview,ov)、背景庞杂(backgroundclutter,bc)、低分辨率(lowresolution,lr)。

测试方法包括one-passevaluation(ope)、temporalrobustnessevaluation(tre)、spatialrobustnessevaluation(sre)三种。ope是传统的测试方法,运行算法一次得到最终结果。从原测试序列中随机分割得到20个长度不同的子序列,在这些子序列上运行跟踪算法,这种测试方法称为tre。将第一帧目标包围框做轻微的平移或尺度变化后作为初始帧运行跟踪算法,相当于在空间上加入扰动,这种测试方法称为sre。tre和sre是为了测试算法在时间和空间上的鲁棒性。

运行跟踪算法得到跟踪结果后,应当将结果表示成目标的边界框的形式。通过与groundtruth对比得到的准确度图(precisionplot)和成功率图(successplot)用来评价算法的性能。准确度图以跟踪结果与groundtruth的中心位置的距离(像素数)为横轴,以百分率为纵轴,百分率表示距离小于横轴确定的阈值的帧所占的比例。不同的距离阈值对应不同的比例,此对应关系即为准确度图。通常以20个像素为排序标准,即比较不同的跟踪算法的跟踪偏差小于20个像素的帧的比例。成功率图着重考察跟踪结果和groundtruth的重叠率(overlapscore,os),即二者交集(重叠)的区域内像素数占二者并集(总区域)内像素数的比例,用公式表达为如式(1):

其中rt和rg分别是跟踪结果和groundtruth的边界框,∪和∩分别表示求并集和交集,|·|表示对应边界框内的像素个数。重叠率大于某个阈值则认为该帧跟踪成功,阈值分布为0~1,对应到不同的成功率,成功率和阈值的对应关系即为成功率图。在对不同的跟踪算法做排序时,排序依据是成功率图中的曲线下的面积(areaundercurve,auc)。

现有的多数跟踪算法未考虑目标被遮挡的情况,即不进行目标是否被遮挡的检测和判断,默认目标不会被遮挡,在任何情况下均进行目标模板的更新学习。少数考虑了遮挡的算法并不能准确区分目标被遮挡和目标的外表变化这两种情况,因此对跟踪效果的提升没有明显贡献。

当目标被遮挡时,跟踪算法的目标模板更新模块应当停止更新以保持目标模板不变而不受遮挡的影响。与此相反,当目标的外表或形状发生变化时,目标模板应当及时更新以捕捉目标的变化。因此目标模板能否正确更新的关键是区分遮挡和目标的外形变化。现存的算法在进行遮挡检测时仅将注意力置于目标上,而对目标而言,被遮挡和外表变化没有区别,因此这些算法无法准确区分遮挡和外表变化。

遮挡的经典定义是:若前一帧中的点在下一帧中无法被观测到,则发生了遮挡。这种定义面临的困难是,两帧之间对应点的检测不可靠,且计算量很大,不适合具有实时性要求的目标跟踪任务。本发明提出了一个新的遮挡的定义方式:如果在前一帧中属于背景的点在当前帧中进入了目标的边界框内部,则发生了遮挡。这个定义方式能够成功区分遮挡和目标形变,将检测重点放到了背景和目标的空间和时间关系上。



技术实现要素:

针对现有技术中的缺陷,本发明的目的是提供一种基于上下文信息的视频遮挡检测系统及方法,其融入了时空上下文信息,将背景信息考虑在内,利用了遮挡和外表变化的本质区别,即遮挡是背景和目标同时参与的一种现象,而目标的外形变化与背景信息无关,因此本发明能准确判断遮挡的发生而不会误判。

根据本发明的一个方面,提供一种基于上下文信息的视频遮挡检测系统,其特征在于,包括:

目标跟踪器,目标跟踪器是基于kcf(核化相关滤波器)的一个变体,加入了估计目标尺度变化的模块;

背景跟踪器,将目标周围的背景分为多个小块并分别跟踪,得到每个背景块的位置和跟踪可信度,为遮挡检测器提供判断是否发生遮挡所需的信息;

遮挡检测器,根据目标跟踪器和背景跟踪器提供的目标和背景位置信息,对背景进行分类:第一背景分类,与目标不重叠;第二背景分类,被目标遮挡;第三背景分类,遮挡目标;根据第三背景分类的背景个数判断遮挡是否发生;

模板更新器,模板更新器的更新策略如下:根据遮挡检测器提供的信息,计算第三背景分类的背景个数;如果此数量超过预设的阈值,则判断当前帧的目标被遮挡,停止对目标模板的更新,否则采用插值的方式更新目标模板。

优选地,所述目标跟踪器输出当前帧中目标的边界框,其模板是否更新由遮挡检测器和模板更新器的决策决定。

优选地,所述模板更新器同时对背景块进行更新。

本发明还提供一种基于上下文信息的视频遮挡检测方法,其特征在于,包括以下步骤:当前帧到来后,目标跟踪器估计当前帧中目标的位置和大小得到目标的边界框;背景跟踪器跟踪目标周围的背景块,得到每个背景块的位置和跟踪可信度信息;遮挡检测器根据一定的指标对背景块进行分类,并根据分类结果情况判断当前帧中的目标是否被遮挡;模板更新器根据遮挡信息对目标模板进行更新,并决定每个背景块是否进行继续跟踪或重新生成;目标跟踪器得到的目标边界框作为跟踪结果输出。

与现有技术相比,本发明具有如下的有益效果:本发明融入了时空上下文信息,将背景信息考虑在内,利用了遮挡和外表变化的本质区别,即遮挡是背景和目标同时参与的一种现象,而目标的外形变化与背景信息无关,因此本发明能准确判断遮挡的发生而不会误判。

附图说明

通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:

图1为本发明基于上下文信息的视频遮挡检测系统的原理框图。

具体实施方式

下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。

如图1所示,本发明基于上下文信息的视频遮挡检测系统包括:

目标跟踪器,目标跟踪器是基于kcf(核化相关滤波器)的一个变体,加入了估计目标尺度变化的模块。在kcf中,目标函数为如式(2):

minw∑i(f(xi)-yi)2+λ‖w‖2……(2)

其中xi是训练样本,yi是其对应的标签,f(xi)=wtxi。为了提高算法性能,引入了高斯核函数如式(3):

其中f-1代表离散傅利叶反变换。目标跟踪器输出当前帧中目标的边界框,其模板是否更新由遮挡检测器和模板更新器的决策决定。

背景跟踪器,现有的基于分块的跟踪算法多数是将目标分为多个部分,对每个部分进行分别跟踪,目标的位置由跟踪可信度较高的部分共同得到。这种方法不能够区分遮挡和外形变化,会将外形变化误认为是遮挡。

本发明采取了相反的策略,将目标周围的背景分为多个小块并分别跟踪,得到每个背景块的位置和跟踪可信度,为遮挡检测器提供判断是否发生遮挡所需的信息。

与目标跟踪器类似,背景跟踪器也采用kcf。为了提高算法的运行效率,采用了线性核函数如式(4):

遮挡检测器,根据目标跟踪器和背景跟踪器提供的目标和背景位置信息,对背景进行分类,并根据c类背景的个数判断遮挡是否发生。

如果一个背景块没有和目标边界框发生重叠,则它属于a类(第一背景分类)。如果一个背景块跟踪的可信程度很低,则认为它被目标遮挡,属于b类(第二背景分类)。此处算法做了简化,即忽略其他可能导致背景块跟踪可信度低的原因而简单认为是因为它被目标遮挡。如果一个背景块的位置和目标的边界框有重叠且具有很高的跟踪可信程度,则它属于c类(第三背景分类)。背景的跟踪可信程度由psr衡量,如式(5):

其中r为kcf跟踪算法的响应分布图,σ代表标准差运算。

对于背景块的分类方法总结如下:如果一个背景块不和目标边界框有重叠,则它属于a类;如果一个背景块和目标边界框有重叠但是跟踪可信度低,则它属于b类;如果一个背景块和目标边界框有重叠且跟踪可信度高,则它属于c类。

模板更新器,模板更新器的更新策略如下:根据遮挡检测器提供的信息,计算c类背景的个数;如果此数量超过预设的阈值,则判断当前帧的目标被遮挡,停止对目标模板的更新,否则采用插值的方式更新目标模板。模板更新器同时对背景块进行更新。如果背景块属于a类或b类,则它已经不能表征当前目标周围的背景,将被重新初始化;如果背景块属于c类,则它代表了目标被遮挡的位置,应当持续进行跟踪。由于模板更新器利用了遮挡检测器的结果,能够自适应地做出适合当前情况的正确决策,因此本发明对遮挡有很好的抵抗效果,鲁棒性很强。

根据对遮挡的定义,本发明对目标周围的背景进行了分类。当遮挡未发生时,背景属于下列两种情况之一:a1.被前进的目标抛在身后,a2.因为处于目标行进的路线上而被目标遮挡住。当遮挡发生时,背景有第三种可能性:a3.进入了目标的边界框内部,遮挡了目标。情况a3是遮挡发生的标志。

本发明基于上下文信息的视频遮挡检测方法包括以下步骤:当前帧到来后,目标跟踪器估计当前帧中目标的位置和大小得到目标的边界框;背景跟踪器跟踪目标周围的背景块,得到每个背景块的位置和跟踪可信度信息;遮挡检测器根据一定的指标对背景块进行分类,并根据分类结果情况判断当前帧中的目标是否被遮挡;模板更新器根据遮挡信息对目标模板进行更新,并决定每个背景块是否进行继续跟踪或重新生成;目标跟踪器得到的目标边界框作为跟踪结果输出。

本发明预设阈值如下:表征背景块跟踪可信程度的psr的阈值α;背景块与目标的重叠度β;背景块个数γ;两个背景块之间的重叠度θ;输出如下数据:当前帧it;跟踪目标的跟踪器icft-1;背景块(包括因符合条件而被保留的背景块和重新生成的背景块);前一帧的跟踪结果bboxt-1;输出如下数据:更新或未更新的icft;更新的背景块;当前帧的跟踪结果bboxt。根据bboxt-1和it,利用icft-1跟踪得到当前帧目标位置bboxt;对所有背景块进行单独跟踪,得到各自在当前帧的位置;计算所有背景块的psr值以判断其跟踪可信程度;计算所有背景块与目标的重叠程度;psr值大于预设阈值α,且与目标边界框重叠程度大于预设阈值β的背景块属于c类背景,保留;其他背景块被抛弃并重新生成;根据保留的背景块两两之间重叠度应小于阈值θ计算得出有效的背景块个数n;如果n大于阈值γ,则认为发生了遮挡或跟踪偏移,icft-1模板不进行更新,否则进行更新,得到icft;模板更新器更新保留的背景块的跟踪器的模板;输出当前帧跟踪结果bboxt。

以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1