复杂干扰场景下的目标跟踪方法

文档序号:6581701阅读:189来源:国知局
专利名称:复杂干扰场景下的目标跟踪方法
技术领域
本发明属于视频监控领域,尤其涉及一种基于运动及目标信息的复杂干扰场景下的目标 跟踪方法。
背景技术
目标跟踪方法的研究和应用是讣算机视觉技术一个重要的分支,实现目标跟踪主要有以 下几个关键点目标提取、目标识别及算法实时性。
现有的目标跟踪方法归纳起来,主要有以下几种 基于运动分析的方法包括帧间差分法,背景减除法以及光流法。
帧间差分法和背景减除法主要通过帧间像素的强度变化米检测得到运动目标,根据检测 出的目标之间的相关性来进行目标的跟踪。其屮,背景减除法是目前最常用的目标检测以及 跟踪的方法。
通过背景减除法的跟踪方法主要包含了两个部分运动目标检测,运动目标跟踪。通过 统计每一个像素点的像素值,对其建立多高斯模型从而得到视频序列中的背景图像,通过与 背景图像的比较来检测出运动区域,通过形态学的方法分割运动目标,这是该方法的目标检 测部分。通过背景检测法得到每一帧图像的运动目标之后,根据目标之间存在的相关性,比 如大小,距离等等来实现目标的跟踪。
在一些简单的场景,或是目标比较少的场景中,该方法能够达到比较好的跟踪效果,在 这些情况下,每帧的目标基本上能够形成一对一的对应关系,但是在复杂场景中,目标密集 时,该方法存在很大的局限性。在复杂场景下,不同帧图像间目标的相关性较弱,目标之间 相互遮挡,干扰使该方法不能判断不同视频帧之间的相同目标。常出现的情况是上顺图像 中多个目标与当前帧同一个目标存在距离等相关性,对于各个目标的跟踪就存在问题。
基于运动矢量估计的光流法通过计算像素点的运动矢量来达到目标跟踪的目的,但由于 其算法的复杂度高,很难适用于实时系统。
特征匹配的方法
特征匹配方法的出发点是通过提取目标的特征,依据同一目标特征之间的相似性来达到 跟踪的目的。该方法关键在于特征选取,常用的方法主要有以下几种,基于区域模板匹配的 方法,基于颜色直方图匹配的方法,基于轮廓匹配的方法等等。
基于区域模板和颜色直方图匹配的方法主要利用了目标的颜色信息,其中,区域模板匹配是以整个目标区域作为跟踪模板来进行相关性匹配计算,在目标运动过程中,经常会发生 形变,或是目标尺寸发生变化,在此情况下目标很容易丢失。颜色直方图匹配将目标区域的 颜色直力'图作为匹配的特征,该方法主要利用了目标颜色信息,没有考虑目标的结构,或者 像素点的相互位置关系,因此,光线的变化很容易导致跟踪失败,同时,如果目标区域与背 景颜色信息相似时,很容易在背景区域得到最佳匹配结果,从而丢失目标。
基于轮廓的匹配方法主要依据运动目标的轮廓特征进行匹配跟踪,该方法主要不足在于 对目标尺寸变化适应性不强,且对阴影或者比较拥挤的场景,目标跟踪的效果很差。

发明内容
针对现有技术的缺点,本发明的目的是提供一种能有效提高鲁棒性及跟踪精确度的复杂 干扰场景下的目标跟踪方法。
为实现上述目的,本发明的技术方案为 一种复杂干扰场景下的目标跟踪方法,其包括 以下步骤
(1) 运动目标检测对每个进入视频中的运动目标,确定其出现的初始位置,采用自 适应多高斯背景模型检测,并通过形态学处理的方法分割出独立的运动目标区域;
(2) 目标特征建模对检测到的每一个运动目标区域,提取多个用于匹配的特征信息, 并进行多特征信息融合,建立目标特征模板,目标建模方法直接影响目标跟踪的准确性和鲁 棒性,本发明通过对目标颜色,梯度,纹理等多种信息,通过非负矩阵分解的方法进行特征 的提取及一致性约束,将各个特征向量看做视频图像的概率密度分布函数,各特征的信息熵 作为包含信息量大小的度量,以此为基准决定多特征融合的权重分布,来建立目标特征模板, 大大提高了复杂场景下目标的辨识度;
(3) 匹配区域搜索在当前帧视频中,在特定的区域内搜索与目标特征模板相关性最
优的区域,作为当前帧目标跟踪定位,本发明通过多特征融合Mean-Shift搜索方法,以迭代 的方法来减小搜索最优匹配的时间,同时,结合模拟退火的思想来避免迭代搜索过程陷入局 部最优解,大大提高了该方法的准确度和效率;
(4) 目标特征模板更新目标跟踪定位后,根据当前帧目标区域的特征信息和前三帧 的目标特征模板的特征,更新当前帧的目标特征模板的特征权重,完成目标特征模板的fi适 应更新。
步骤(1)中,对视频中每一个像素点建立多高斯模型,通过统计的方法估计出视频背 景,设用来描述每个点颜色分布的高斯分布共有K个,分别记为
其中,7表示高斯模型,Z代表每个像素点,/代表高斯分布的个数,《代表像素点Z的亮度值,/^表示某一像素点其中一个高斯模型初始均值,S,,,代表混合多高斯模型的叠加。
各高斯分布分别具有不同的权值ft^(Z,^v=1)和优先级/^ =/ A,z ,其中C^是各高斯
分布的方差,各个高斯分布按优先级从高到低的次序排列,取定背景权值部分和阈值M,设 定阈值M,按照高斯模型的排序,将各个权值相加,不超过阈值M的,则认为是背景部分, 其他则是前景分布。
步骤(2)中,对于每一个运动目标区域,采用非负矩阵分解的方法,分别提取其颜色、 梯度、纹理特征信息的特征向量,得到代表各个特征信息的非负基向量组,融合各个基向量 组,得到最终代表视频的特征向量组。
各特征信息的特征向量的特征提取将各特征信息信息看做非负"^"矩阵C,其中W," 为视频图像的高度和宽度,通过迭代方法求解特征向量《以及约束矩阵^,并采用欧式距离<formula>formula see original document page 8</formula>其中,非负矩阵分解的求解过稈如下
a. 初始化《,/2矩阵为非负随机矩阵;
b. 对《,A进行迭代运算,其中g, A是同步迭代,迭代公式如下-
其中,z',,a分别代表各个矩阵坐标,c为图像的信息矩阵。
C.计算C和《/ 之间的欧氏距离,如果大于预定订值,返回b继续运算;否则停止,运
算结束,最终得到的《为某一特征信息的特征向量,其中图像颜色信息特征向量记为&,梯 度图像记为,纹理图像记为《c 。
通过对梯度图像求一阶导数得到检测图像中的边缘点,图像/(x,力在位置(x,力的梯
度定义为下列向量
<formula>formula see original document page 8</formula>
通过灰度共牛矩阵所产牛的一些统计量作为纹理特征信息來表示图像像素的空间关系,
令图像/"力灰度共生矩阵A,/为<formula>formula see original document page 9</formula>
其中^xlcom^/o")表示x中满足条件cow^"ow的元素个数,Z',乂为图像坐标。根据 (A,乃),(&,^2)之间的距离^/,与坐标横轴的夹角(9,得到各种间距及夹角的灰度共生矩
阵/7(/, 。
多特征信息融合设《,《2,^分别为某一目标区域的提取的颜色信息特征向量、梯度信 息特征向量及纹理信息特征向量,则目标区域按如下方式来描述
其中,q为各个特征信息的权重因子,2^^,=1,权值的计算依据不同特征所包含的 信息量来确定,用信息熵来进行度量,将各个特征向量看做视频图像的概率密度分布函数,
关系^OCg(i/);
得到各个特征向量及其权值后,将目标特征模板记为^,以^为中心的区域模板记为
P(力,则匹配相关系数
最优匹配为寻求此相关系数的最大值。
步骤(3)中,匹配区域搜索为空间位置的局部最优搜索后续帧的目标定位中,以前一 帧的目标区域质心点为中心,采用多特征融合Mean-Shift搜索方法,搜索出与目标特征模板 的最佳匹配区域;
给定d维空间i^中的"个样本点^,z'二l,2…",在x点的Mean Shift向量的基本形式定 义为
2 = {帮,|/ = 1,2,3}
记为4,其信息熵表示为
Alog2ft),各个特征信息的权值与其信息熵成正比
/^,PCy)] = 2>P[G』Cy)]
其中,^是一个半径为A的高维球区域,满足以下关系的y点的集合,
A:表示在这w个样本点A中,有A个点落入&区域中。
Mean Shift形式扩展为:其中,//为与距离相关的核函数,且对所有采样点满足^(^) = 1;
根据多特征信息融合的特征提取方法,对于指定的目标区域,提取其特征向量g,以少为 中心的区域模板记为尸O),则MFMS匹配相关系数为
其中,m表示每一个特征向量的维数,M为具体每一维,/表示不同的图像特征。上式在
P(少o)处泰勒展开可得-
对上式右边第二项采用MFMS方法搜索最佳匹配位置,迭代过程歩骤如下
i .计算当前搜索点、的特征向量尸(70),计算与目标模板相关系数/ [aP(為)];
ii 基于MFMS,.得到新的坐标点
更新p(力),计算/ [込n^)〗;
i丄比较Ma尸(A)]与户[2,P(力)],如果M2,P00]〉M2,P(:^)],则^ =力,反之
iv.在一定目标特征模板范围内随机扰动产生新的匹配点坐标乂 ,计算/ [2,尸00],比 较M込尸(乃)],户[COO],如果P
〈/
,以乂作为最优匹配位置,
反之,以某一周定概率接受乂, y。=_y:;
V.当lyi一^l卜f或达到最高迭代次数时,算法终止,反之,回步骤2;其屮,f是给定
的误差因了,在迭代过程中,连续两次计算出的匹配模板位置小于l个像素时,迭代终止,c
取值为0.5。
步骤(3)中,匹配区域搜索为尺度空间的局部最优搜索以当前搜索区域为起点,按尺度增大或减小方向分别进行搜索,搜索范围为尺度 ±(10% —15%),搜索间隔5%;
在尺度变化搜索过程中,通过减小在多特征融合中梯度信息的权重减少对梯度特征信息
的干扰,通过改变灰度共生矩阵中的距离因子"减少对纹理特征信息的干扰。 与现有技术相比,本发明具有如下有益效果:
1、 在运动检测的基础上增加目标信息匹配技术,提高了复杂场景下目标跟踪的鲁棒性。
2、 采用多特征信息融合的方法,使得对目标的描述更为全面,提高目标跟踪过程中的 成功率和稳定性。
3、 采用更为合理的方式进行多特征信息融合,根据目标特征所包含的信息量来决定各 个特征在目标匹配过程中所含的比重。
4、 计算量小,在不失精度的前提下完全可用于实时处理。


图l为本发明的总流程图; 图2为本发明的目标跟踪流程; 图3为本发明的多特征信息融合流程图。
具体实施例方式
以下结合附图对本发明进行详细的描述。
如图1及图2所示,木发明提供一种结合运动与目标信息的复杂场景下的目标跟踪方
法,该方法的主要流程如下
*运动目标检测对每个进入场景中的运动目标,需要确定其出现的初始位置,运动目 标的检测采用自适应多高斯背景模型,并通过形态学处理的方法分割出独立的运动目 标。
參目标特征建模对检测到的每一个运动目标区域,提取多个用于匹配的特征信息,并 进行多特征信息融合,建立目标特征模板,目标建模方法直接影响目标跟踪的准确性 和鲁棒性,本发明通过对目标颜色,纹理等多种信息,通过非负矩阵分解的方法进行 特征的提取及一致性约束,将各个特征向量看做视频图像的概率密度分布函数,各特 征的信息熵作为包含信息量大小的度量,以此为基准决定多特征融合的权重分布,来 建立目标特征模板。
*匹配区域搜索在当前帧视频屮,在特定的区域内搜索与目标特征模板相关性最优的 区域,作为当前帧目标跟踪定位,本发明通过多特征融合Mean-Shift搜索方法,以 迭代的方法来减小搜索最优匹配的时间,同时,结合模拟退火的思想来避免迭代搜索 过程陷入局部最优解。*目标特征模板更新目标锁定后,根据当前帧目标区域的特征信息和前三帧的模板特 征,更新当前帧的模板特征权重,完成模板的fi适应更新,为后续的鲁棒跟踪创造条 件。
下面对本发明的几个步骤依次进行详细描述
1. 运动目标检测
采用多高斯背景模型,对每一个像素点建立多高斯模型,通过统计的方法估计出视频背 景,设用来描述每个点颜色分布的高斯分布共有K个,分别记为
〃(",'.,:l,, )"=1,2,3,4
其中,w表示高斯模型,^代表每个像素点,/代表高斯分布的个数,《代表像素点z的 亮度值,A,z表示某一像素点其中一个高斯模型初始均值,z,,,代表混合多高斯模型的叠加。
各高斯分布分别具有不同的权值^,,(2^.^,, 二l)和优先级A,y =^,,./^,,,其中^,,是各高斯 分布的方差。各个高斯分布按优先级从高到低的次序排列,取定背景权值部分和阈值M,设 定阈值M,按照高斯模型的排序,将各个权值相加,只要不超过阈值M,都认为是背景部
分,即B二m^z;^.〈M前若干个分布才被认为是背景分布,其他则是前景分布。
判断一个像素点是否为前景点的方法是将当前像素值与背景模型相匹配,若满足背景模 型,则当前像素点为背景,反之,则为前景像素点。
得到前景像素点之后,通过形态学腐蚀膨胀的方法分割出独立的运动目标。
2. 运动目标特征建模
对检测到的每一个运动目标区域,提取用于匹配的特征,建立冃标特征模型。本发明中, 用于匹配的目标信息采用多特征信息融合的方式,多特征信息融合主要针对单一特征信息中 存在的不足进行改进,多特征信息融合进行跟踪极大提高了算法的鲁棒性。
对于指定的目标运动区域,采用单一的特征进行匹配具有一定的局限性,针对视频图像 中的运动目标而言,目标的形变,视频场景光线变化都会影响目标特征匹配的准确性,因此, 针对这一问题,本发明采用了目标的颜色,边缘,纹理等多特征融合的方式来实现目标的准 确匹配。
为确保待匹配特征的一致性,本发明采用非负矩阵分解的方法提取图像某一特征信息的 特征向量,用于特征匹配。即将原始视频图像,原始视频梯度图像,原始视频纹理图像等看 做代表了图像某'方而性质的非负矩阵信息,进行非负矩阵分解,得到代表各个特征信总的 非负基向量组,融合各个基向量组,得到最终代表图像的特征向量组。首先以图像的颜色信 息为例介绍非负矩阵分解的主要步骤。 2.1颜色信息的特征提取
非负矩阵分解问题可以描述为已知一个非负附*"矩阵「,目的是找出非负的附*^矩 阵『和非负的^* 矩阵//,使得K^WH。非负矩阵分解是用非负性约束来获取数据表示 的一种方法。非负性是对矩阵分解非常有效的条件限制,它导致了对于原始数据的基于部分
12的表示形式,即样本数据只允许加性和非负的组合。算法所得到的非负基向量组W具有一 定的线性无关性和稀疏性,从而使得其对原始数据的特征及结构具有相当的表达能力。
在本发明中,图像的颜色信息可以看做非负m*w矩阵c ,其中为图像的高度和宽度。
需要得到特征向量《以及约束矩阵//,非负矩阵分解的求解是一个最优化问题,可以用迭代
方法求解《和/ 。非负矩阵分解问题的目标函数有很多种,本发明中采用欧式距离
lc-斧E,"-
非负矩阵分解问题的求解过程如下-
1. 初始化《,/2矩阵为非负随即矩阵,
2. 对《,力进行迭代运算,其中《,A是同步迭代,也就是说,完成《中的一行更新之后, 立即更新A中相应的列,迭代公式如下-
其中,Z,乂"分别代表各个矩阵坐标,c为图像的信息矩阵。
3.计算c和^之间的欧氏距离,如果大于预定订值,返回2继续运算;否则停止,运算
结束o .
最终得到的《即为图像颜色信息的特征向量,同理可以得到梯度图像以及纹理图像的特
征向量。为区分不同信息的特征向量,颜色信息特征向量记为& ,梯度记为& ,纹理记为& 。
2.2梯度信息
通过对图像求一阶导数可以检测图像中的边缘点,图像/Cx,力在位置(x,力的梯度定义
为下列向量
力/,/ax—
图像每一个像素分别由水平及垂直方向的梯度构成,记为g,通过非负矩阵分解的方法 得到梯度特征向量《g,考虑到梯度的方向性,梯度计算存在负值,在非负矩阵分解迭代过程
之前,需把梯度归一化到o-l之间。 2.3纹理信息
灰度共生矩阵是图像灰度的二阶统计度量,用灰度共生矩阵所产生的一些统计量作为纹 理特征来表示图像像素的空间关系,令图像/O,j0灰度共生矩阵Aj为
13其中cowA力'oW表示x中满足条件C0"fifo/0/Z的元素个数,O'为图像坐标。根据 (A,力),(X2,A)之间的距离d,与坐标横轴的夹角6>,可以得到各种间距及夹角的灰度共 生矩阵P(U乂60。
根据以上得到的统计量,图像的纹理信息可以表示为每一个像素点位置的二阶概率密度, 记为^ ,通过非负矩阵分解得到其特征向量记为& 。
2.4多特征信息融合
上述信息分别表示目标某一特定方面的特征,《,《2,《3,则目标区域可以按如下方式来
描述
<formula>formula see original document page 14</formula>其中,q为各个特征的权重因子,2],.^=1,目标跟踪就是寻求目标特征模板与区域模板
之间的最优匹配。特征融合的关键是找到一组合适的权值,使目标模板匹配计算更加准确, 权值的计算依据不同特征所包含的信息量来确定,用信息熵来进行度量,将各个特征矢量看
做图像的概率密度分布函数,记为A,.,其信息熵可以表示为
五(//) = —^>log2(Af)
各个特征的权值与其信息熵成正比关系qoc五,.(^0,即某种特征所包含的信息量越多,对目
标匹配产生的影响越大,如图3所示。
得到各个特征向量及其权值后,将目标特征模板记为g,以j为中心的区域模板记为 尸Cy),则匹配相关系数
p[2,户(力]:i^p[Q,《(力]
! =1
最优匹配就是寻求此相关系数的最大化。
3.匹配区域搜索
3.1空间位置的局部最优搜索
后续帧的目标定位中,为保证算法的实时性,以前一帧的目标质心点为中心,采用多特 征融合Mean-Shift搜索(Multi-Feature Mean-Shift, MFMS)方式,搜索出与目标模板的最佳 匹配区域,MFMS算法,是指一个迭代的步骤,及算出当前样本点的偏移均值,移动该样本 点到其偏移均值,然后以此为新的起点,继续移动,茛到满足一定的条件结束。
给定d维空间中的"个样本点x,.,z' = 1,2 w ,在;c点的Mean Shift向量的基本形式定 义为
<formula>formula see original document page 14</formula>
其中,^是一个半径为/2的高维球区域,满足以下关系的少点的集合,<formula>formula see original document page 14</formula>A:表示在这"个样本点A中,有&个点落入&区域中。如果样本点《从一个概率密度函
数/oo中采样得到,由于非零的概率密度梯度指向概率密度增加最大的方向,因此&区域
内的样本点更多的落在沿着概率密度梯度的方向,对应的,Mean Shift向量M"工)应该指向 概率密度梯度的方向。
一般来说,距离^点越近的采样点对估计I周围的统计特性越有效,因此引进了核函数 的概念,在计算^A(力时可以考虑距离的影响,基本的Mean Shift形式扩展为-
其中,//为与距离相关的核函数,且对所有采样点满足必(x,)二l。
根据多特征融合的特征提取方法,对于指定的目标区域,提取其特征向量G,以y为中
心的区域模板记为尸O),则MFMS匹配相关系数为
顺尸(力〗=|>,顺,,]=iw,i應"s,"(力
/=
/=i
其中,m表示每一个特征向量的维数,M为具体每一维,Z'表示不同的图像特征,上式
在^Cyo)处泰勒展开可得
/^,尸(力〗4i:闷l;vc^+4i",i《,"(力 Q,"
z i=l w=l 么'.=1 w=1 V巧'"、少0 J
对右边第二项采用MFMS方法搜索最佳匹配位置,迭代过程步骤如下
1. 计算当前搜索点^的特征向量P(^)),计算与目标模板相关系数/ [G,户(少o)],
2. 基于MFMS,得到新的坐标点
i.=l w=l
^=~1-
更新p(^),计算户[2,尸(力)]。
3. 比较/ [2,尸(少0)]与/ [2,尸(力)],如果P[2,尸(力)]〉/ [2,尸CVo)],则^=力,反 之^ 二Oo+^)/2。
4. 在一定模板范围内随机扰动产生新的匹配点坐标乂,计算;0[2,尸0:)],比较 MG,尸(力)],/ [2,尸(A)],如果yO[2,尸(为)]〈/ [a尸(乂)],以乂作为最优匹配位置,反
之,以某一固定概率接受夂,_y。=j:。
5. 当|力-、||<^或达到最高迭代次数时,算法终止,反之,回步骤2。其中,s是给
定的误差因子,在迭代过程中,连续两次计算出的匹配模板位置小于l个像素时,迭代终止,^取值为0.5。
3.2尺度空间的局部最优搜索
尺度空间局部最优搜索的作用是提高算法对目标尺度变化情况跟踪的稳定性,以当前检 测区域为起点,按尺度增大或减小方向分别进行搜索,搜索范围为尺度±(10%-15%),搜 索间隔5%。
在尺度变化搜索过程中,其梯度信息和纹理信息发生了较大的改变,通过两种方式减少 此变化带来的影响,针对图像梯度信息,采取的方法是减小在多特征融合中梯度信息的权重, 针对纹理信息,主要改变灰度共生矩阵中的距离因子d,采取的方式是在计算过程中,保留 几组根据不同的距离因子所产生的灰度共生矩阵,根据得到的目标模板大小,适当增加或者 减小距离因子d,在尺度搜索过程中与不同的纹理信息进行相关性计算。增加尺度方向上的
搜索极大改善了一般匹配中固定模板的缺陷,大大提高了视频序列中H标尺寸变化情况下跟 踪的成功率。
3.3目标模板更新
目标锁定后,根据当前帧目标区域的特征信息和前二帧的模板特征,更新当前帧的模板 特征权重,完成模板的自适应更新,更新包括目标的特征信息及尺度的变化。为后续的鲁棒 跟踪创造条件。
权利要求
1、一种复杂干扰场景下的目标跟踪方法,其特征在于包括以下步骤(1)运动目标检测对每个进入视频中的运动目标,确定其出现的初始位置,采用自适应多高斯背景模型检测,并通过形态学处理的方法分割出独立的运动目标区域;(2)目标特征建模对检测到的每一个运动目标区域,提取多个用于匹配的特征信息,并进行多特征信息融合,建立目标特征模板,其通过对目标颜色、梯度、纹理特征信息的特征向量,采用非负矩阵分解的方法进行特征的提取及一致性约束,将各个特征向量看做视频图像的概率密度分布函数,各特征的信息熵作为包含信息量大小的度量,以此为基准决定多特征融合的权重分布,建立目标特征模板;(3)匹配区域搜索在当前帧视频中,在特定的区域内搜索与目标特征模板相关性最优的区域,作为当前帧目标跟踪定位,其通过多特征融合Mean-Shift搜索方法,以迭代的方法来减小搜索最优匹配的时间,同时,结合模拟退火算法来排除迭代搜索过程陷入局部最优解;(4)目标特征模板更新目标跟踪定位后,根据当前帧目标区域的特征信息和前三帧的目标特征模板的特征,更新当前帧的目标特征模板的特征权重,完成目标特征模板的自适应更新。
2、 根据权利要求1所述的复杂干扰场景下的目标跟踪方法,其特征在于步骤(1)中, 多高斯背景模型的具体检测方法为对视频中每一个像素点建立多高斯模型,通过统计的方 法估计出视频背景,设用来描述每个点颜色分布的高斯分布共有K个,分别记为<formula>formula see original document page 2</formula>其中,7表示高斯模型,?代表每个像素点,/代表高斯分布的个数,K代表像素点,的亮度值,A,/表示某一像素点其中一个高斯模型初始均值,代表混合多高斯模型的叠加,各高斯分布分别具有不同的权值<formula>formula see original document page 2</formula>和优先级<formula>formula see original document page 2</formula>其中c^是各高斯分布的方差,各个高斯分布按优先级从高到低的次序排列,取定背景权值部分和阈值M,按 照高斯模型的排序,将各个权值相加,不超过阈值M的,则认为是背景部分,其他则是前景 分布。
3、 根据权利要求l所述的复杂干扰场景下的目标跟踪方法,其特征在于步骤2中, 非负矩阵的具体分解方法为将各特征信息看做非负》1*打矩阵^,其中w,"为视频图像的高度和宽度,通过迭代方法求解特征向量《以及约束矩阵A ,并采用欧式距离|c ——| = 2^.[ /一(^0^]2,其中,非负矩阵分解的求解过程如下-a. 初始化《,a矩阵为非负随机矩阵;b. 对《,a进行迭代运算,其中《,a是同歩迭代,迭代公式如下其中,/,J',a分别代表各个矩阵坐标,c为图像的信息矩阵。C.计算C和《/ 之间的欧氏距离,如果大于预定订值,返回b继续运算;否则停止,运算结束,最终得到的《为某一特征信息的特征向量,其中图像颜色信息特征向量记为&,梯 度图像记为&,纹理图像记为&。
4、根据权利要求3所述的复杂干扰场景下的目标跟踪方法,其特征在于通过对梯度图像求一阶导数得到检测图像中的边缘点,图像/O,j0在位置(x,力的梯度定义为下列向<formula>formula see original document page 0</formula>通过灰度共生矩阵所产生的一些统计量作为纹理特征信息来表示图像像素的空间关系, 令图像/灰度共生矩阵Aj为p',/ = # {(xi ,力),&, _y2) I /Oi,少i)=a /o2 , _y2)=_/}其屮弁^lco打A'"o"》表示x中满足条件cw^力'on的元素个数,z',乂为图像坐标;根据 (X,力),(X2,力)之间的距离^,与坐标横轴的夹角6>,得到各种间距及夹角的灰度共生矩
5、根据权利要求4所述的复杂干扰场景下的目标跟踪方法,其特征在于多特征信息融 合设《,《2,《3分别为某一目标区域的提取的颜色信息特征向量、梯度信息特征向量及纹理 信息特征向暈,则目标区域按如下方式来描述<formula>formula see original document page 0</formula>其中,M为各个特征信息的权重丙子,21.^=1,权值的计算依据不同特征所包含的信息量来确定,用信息熵来进行度量,将各个特征向量看做视频图像的概率密度分布函数,记为^,其信息熵表示为<formula>formula see original document page 4</formula>各个特征信息的权值与其信息熵成正比 关系^0C《(i7);得到各个特征向量及其权值后,将目标特征模板记为^,以^为中心的区域模板记为尸OO,则匹配相关系数<formula>formula see original document page 4</formula>最优匹配为寻求此相关系数的最大值。
6、根据权利要求5所述的复杂干扰场景下的目标跟踪方法,其特征在于步骤(3)中,匹配区域搜索为空间位置的局部最优搜索后续帧的目标定位中,以前一帧的目标区域质心点为中心,采用多特征融合Mean-Shift搜索方法,搜索出与目标特征模板的最佳匹配区域; 给定维空间中的"个样本点《,/ = 1,2' ,在x点的Mean Shift向量的基本形式定 义为<formula>formula see original document page 4</formula>其中,&是一个半径为/ 的高维球区域,满足以下关系的^点的集合,<formula>formula see original document page 4</formula>A:表示在这w个样本点&中,有&个点落入&区域中。 Mean-Shift形式扩展为<formula>formula see original document page 4</formula>其中,i/为与距离相关的核函数,且对所有采样点满足权值^(《)=1;根据多特征信息融合的特征提取方法,对于指定的目标区域,提取其特征向量g,以少为中心的区域模板记为尸Cy),则MFMS匹配相关系数为<formula>formula see original document page 4</formula>其中,w表示每一个特征向量的维数,w为具体每一维,〖表示不同的图像特征,上式在P(^))处泰勒展开可得:对上式右边第二项采用MFMS方法搜索最佳匹配位置,迭代过程步骤如下i. 计算当前搜索点:^的特征向量尸Oo),计算与目标模板相关系数/ 必PCyo)]-,ii. 基于MFMS ,得到新的坐标点更新P(力),计算M2,P")];iii. 比较P[2,PCyo)]与M2,尸(力)],如果P[2,P00]〉M2,尸0^)],则^=^,反之iv. 在一定目标特征模板范围内随机扰动产生新的匹配点坐标乂,计算/ [2,尸00],比较M2,P(A)], yo[2,ny!)],如果yo[2,P(乃)]〈P[aP(乂)〗,以乃作为最优匹配位置, 反之,以某一固定概率接受y;, _y。=_v;;v. 当l力-:^l卜f或达到最高迭代次数时,算法终止,反之,回步骤2;其中,s是给定 的误差因子,在迭代过程中,连续两次计算出的匹配模板位置小于i个像素时,迭代终止,s取值为0.5。
7 、根据权利要求6所述的复杂干扰场景下的目标跟踪方法,其特征在于步骤(3)中, 匹配区域搜索为尺度空间的局部最优搜索以当前搜索区域为起点,按尺度增大或减小方向分别进行搜索,搜索范围为尺度±(10% —15%),搜索间隔5%;在尺度变化搜索过程中,通过减小在多特征融合中梯度信息的权重减少对梯度特征信息的 干扰,通过改变灰度共生矩阵中的距离因子fif减少对纹理特征信息的干扰。
全文摘要
本发明公开一种复杂干扰场景下的目标跟踪方法,包括以下步骤运动目标检测对每个进入视频中的运动目标,确定其出现的初始位置,采用自适应多高斯背景模型检测,并通过形态学处理的方法分割出独立的运动目标区域;目标特征建模对检测到的每一个运动目标区域,提取多个用于匹配的特征信息,并进行多特征信息融合,建立目标特征模板;匹配区域搜索在当前帧视频中,在特定的区域内搜索与目标特征模板相关性最优的区域,作为当前帧目标跟踪定位;目标特征模板更新目标跟踪定位后,根据当前帧目标区域的特征信息和前三帧的目标特征模板的特征,更新当前帧的目标特征模板的特征权重,完成目标特征模板的自适应更新。
文档编号G06T7/20GK101673403SQ200910193009
公开日2010年3月17日 申请日期2009年10月10日 优先权日2009年10月10日
发明者吴金勇, 敬 黄 申请人:安防制造(中国)有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1