基于局部对比显著性联合特征的目标跟踪方法

文档序号:8224197阅读:816来源:国知局
基于局部对比显著性联合特征的目标跟踪方法
【技术领域】
[0001] 本发明属于计算机视觉与图像处理技术领域,具体设及基于局部对比显著性联合 特征的目标跟踪方法。
[000引背景
[0003] 目标跟踪尤其是复杂场景下目标跟踪是计算机视觉面临的极具挑战性的难点。能 够在复杂场景下利用较少的先验知识对目标进行跟踪,已经成为军事侦查、移动机器人、智 能视频监控等迫切的要求。在复杂背景下各种环境因素:目标类内变化、姿态、光照条件等 使得很难进行目标的有效跟踪。因此,广大研究者试图寻求先进的技术手段,提出高效、实 时的复杂环境下的目标跟踪算法。
[0004] 均值漂移(Comaniciu, D. , Ramesh, V. , and Meer, P. , "Kernel - based object tracking)是常用的跟踪方法,该类方法首先利用颜色直方图建立目标和候选目标模型,利 用己氏系数计算相似性系数,通过Mean Shift找到最相似候选区域实现对目标的跟踪。具 有实时性好、框架优美和简单的优点,获得广泛的应用。然而,由于仅采用颜色特征,只适用 于目标和背景颜色区分度较好的场合,使得该方法具有一定的局限性。
[0005] 自Itti于1998年提出基于特征整合的视觉注意显著性可计算模型,并应用于计 算机视觉领域的场景分析W后,针对显著性的目标跟踪方法发展起来。Su等人于2014年提 出利用先验知识计算加权集自适应构建Itti模型,用于突然运动跟踪。但该类方法并没有 考虑背景的信息,且Itti模型本身需要调节的参数比较多,计算耗时,选用目标模型作为 先验难免会有误差,很难得到客观公正的结果。M址adevan等人认为视觉跟踪是时序判别中 屯、显著性自上而下的调解过程,于2009年提出利用统计分类学习中屯、周边判别显著特征, 进行目标初始化、特征选择和检测确定目标在下一帖的位置实现目标跟踪。但是,利用统计 学习方法计算量较大,且仅仅模拟了跟踪过程,在面对复杂场景时对于目标特征的变化具 有明显的不足。
[0006] 复杂场景目标跟踪方法存在的难点在于:
[0007] (1)复杂场景,包括光线剧烈变化、目标周围存在相似分布的背景、非跟踪的物体 等干扰因素;
[000引 (2)目标自身的改变,包括姿态变化、突然运动及被遮挡等;
[0009] (3)传统的特征表述框架。选择的特征不能很好的区分目标和背景,会使跟踪漂 移;融合多特征缺乏有效的方法,很难获得鲁椿的跟踪结果。
[0010] (4)显著性特征具有极强的判别力,现有方法获得的特征不仅计算方法复杂,而且 特征分布仅仅是零散的,跟踪过程中的区分力比较弱;同时,仅仅利用显著特征,目标特征 信息不完整,目标如何从复杂背景完整有效突显出来是显著性在目标跟踪应用的难点。

【发明内容】

[0011] 本发明的目的在于克服现有技术的不足,提供一种基于局部对比显著性联合特征 的目标跟踪方法,通过提取目标模型的局部对比显著特征,采取自下而上和自上而下联合 调节的方法处理目标自身变化和复杂背景问题,获得更好的目标跟踪效果。
[0012] 本发明的基于局部对比显著性联合特征的目标跟踪方法,包括W下步骤:
[0013] 步骤S1:选取动态场景下视频的第t帖输入含有跟踪目标和常用背景环境的视频 帖,手动选取目标区域,并用矩形框表示目标区域的边界;
[0014] 步骤S2 ;根据目标区域选取背景区域,并用矩形框表示背景区域的边界;
[00巧]步骤S3 ;分别提取目标区域和背景区域的颜色直方图特征、纹理直方图特征、梯 度直方图特征,计算每个特征的概率值,并生成对应的概率图;
[0016] 步骤S4 ;依据提取的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别计 算每个特征的对比度值,定义为显著性特征,并生成对应的特征向量fl、f2、fs;
[0017] 步骤S5 ;基于特征向量fi、f2、fs,堆找构造样本特征向量 [00化]F =化,f2,f3]T
[0019] 步骤S6;依据每个特征图对目标显著性的贡献度,利用学习算法估计最优特征 权,选出最显著特征;
[0020] 步骤S7 ;利用最显著特征分别建立目标和背景观测模型,利用Mean化ift算法找 到目标下一帖的位置;
[0021] 步骤S8 ;判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否 失败;
[0022] 步骤S9 ;当检测出跟踪目标正常,执行步骤13 ;若检测出跟踪目标失败,执行步骤 10 ;
[002引步骤10 ;构建可分性评价函数町,公式为
[0024]
【主权项】
1. 基于局部对比显著性联合特征的目标跟踪方法,其特征在于:包括以下步骤: 步骤Sl:选取动态场景下视频的第t帧输入含有跟踪目标和常用背景环境的视频帧, 手动选取目标区域,并用矩形框表示目标区域的边界; 步骤S2 :根据目标区域选取背景区域,并用矩形框表示背景区域的边界; 步骤S3:分别提取目标区域和背景区域的颜色直方图特征、纹理直方图特征、梯度直 方图特征,计算每个特征的概率值,并生成对应的概率图; 步骤S4 :依据提取的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别计算每 个特征的对比度值,定义为显著性特征,并生成对应的特征向量f\、f2、f3; 步骤S5 :基于特征向量?\、f2、f3,堆栈构造样本特征向量 F = Lf1, f2, f3]T 步骤S6 :依据每个特征图对目标显著性的贡献度,利用学习算法估计最优特征权,选 出最显著特征; 步骤S7 :利用最显著特征分别建立目标和背景观测模型,利用Mean Shift算法找到目 标下一帧的位置; 步骤S8 :判断显著性特征确定的跟踪框和目标位置的相似性,检测跟踪目标是否失 败; 步骤S9 :当检测出跟踪目标正常,执行步骤13 ;若检测出跟踪目标失败,执行步骤10 ; 步骤10 :构建可分性评价函数Dt,公式为
其中,/?,α为目标观测;为背景观测;ε为设定常数,用于去掉较小的目 标观测和背景观测,以提高算法的稳定性;r为背景特征分布;ω为前景特征分布;目标观 测和背景观测采用具有H个区间的直方图来表示,h表示特征分量,h = 1,2,……,H;t为 选取图像的帧数; 通过可分性评价函数Dt将显著性目标模型与背景共有的特征映射为零值,存在于背景 特征分布映射为负值,只保留目标最能区分的特征分量构成目标的显著性模型; 步骤Sll :构建目标观测的连续性模型
其中ZSfI为显著性目标连续模型;为t-k时刻目标模型;/=1/,为t时刻 显著性目标模型;γ k为遗忘因子;C 2为归一化常数;t为选取图像的帧数;k为选取图像的 第k帧视频; 步骤S12 :利用可分性评价函数Dt及目标观测的连续性模型对目标模型进行修正,得 到目标合作模型; 步骤S13 :利用均值漂移算法实现的定位。
2. 根据权利要求1所述的方法,其特征在于: 提取目标区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率 图,其向量均可表示为
提取背景区域的颜色直方图特征、纹理直方图特征、梯度直方图特征,分别生成的概率 图,其向量均可表示为
步骤S4中计算对比度值的公式为
其中目标区域和背景区域采用具有H个区间的直方图来表示,h表示特征分量,h = 1,2,……,H,f e {C,LBP,HOG}表示特征向量,C为颜色、LBP为纹理、HOG为梯度方向直方 图。
3. 根据权利要求2所述的方法,其特征在于:步骤2中所述背景区域与目标区域形状 相同且具有相同中心点。
4. 根据权利要求3所述的方法,其特征在于:步骤S6中所述的学习算法为AdaBoost算 法。
5. 根据权利要求4所述的方法,其特征在于:步骤SlO中参数ε通过中位数估算得到, 其取值范围为(〇,1)。
【专利摘要】本发明为一种基于局部对比显著性联合特征的目标跟踪方法。包括步骤:(1)目标跟踪开始初始化选取目标区域和背景区域;(2)提取目标区域和局部背景区域的颜色、纹理、梯度方向直方图特征,进行自下而上显著特征提取;(3)自上而下的特征评估,修正显著性模型;本发明利用显著性特征强区分性、稳健性,作为单一的特征的补充,能够较好的表述目标,可以提高系统在目标与背景具有相似特征分布、局部遮挡、目标自身变化等复杂场景下的跟踪性能,具有较强的鲁棒性。
【IPC分类】G06T7-20
【公开号】CN104537689
【申请号】CN201410822318
【发明人】郑碎武, 刘林山, 乔红
【申请人】中国科学院自动化研究所
【公开日】2015年4月22日
【申请日】2014年12月25日
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1