基于粒子滤波的视觉跟踪方法及系统的制作方法

文档序号:6574812阅读:190来源:国知局
专利名称:基于粒子滤波的视觉跟踪方法及系统的制作方法
技术领域
本发明涉及视觉跟踪技术,具体涉及基于粒子滤波的视觉跟踪方法及系统。
背景技术
视觉跟踪的本质是在视频序列中递推估计出感兴趣的具有显著图像特征的目标的位置,图像特征包括颜色、形状、纹理和运动等。视觉跟踪问题可视为递推的状态估计问题。也就是说获得视觉目标状态估计,便可确定跟踪目标的位置。现有技术中,存在以下几种视觉跟踪方法现有技术中,从多视觉特征自适应、自组织融合角度出发提出了民主合成法(Democratic Integration),并运用于人脸跟踪。民主合成法指的是一种多视觉特征自组织融合算法,能够把相关特征很好地组织在一起,发挥更大的作用。将民主合成法运用于人脸的视觉跟踪方法具体为针对图像中的每个像素,进行多特征的提取,通过民主合成方法得到每个像素所代表目标与真实目标的相似程度,然后找到相似程度最高的像素作为目标的中心位置,以实现跟踪过程。该方法这实际上是一个穷举的过程,缺乏实现视觉跟踪的有效理论框架,导致视觉跟踪算法效率较低。并且,通过实验还发现,该方法对视觉目标的不连续运动敏感;对虚假目标的干扰敏感,一旦发生因虚假目标产生的误跟踪,将难以恢复。这样,现有技术的视觉跟踪方法导致了视觉跟踪的可靠性和稳健性较低。
由此可见,现有技术的视觉跟踪方法存在可靠性低和稳健性差的缺点。

发明内容
本发明实施例提供一种基于粒子滤波的视觉跟踪方法,该方法能够提高视觉跟踪的可靠性和稳健性。
本发明实施例提供一种基于粒子滤波的视觉跟踪系统,该系统能够提高视觉跟踪的可靠性和稳健性。
一种基于粒子滤波的视觉跟踪方法,该方法包括根据当前多视觉特征合成权值集合计算得到当前子帧的多视觉特征融合状态滤波估计,所述多视觉特征融合状态滤波估计包含目标位置信息;及根据所述目标位置信息确定视觉跟踪的当前子帧的目标位置。
一种基于粒子滤波的视觉跟踪系统,该系统包括合成权值获取模块、多视觉特征融合状态滤波估计模块和目标位置确定模块;合成权值获取模块,获取当前多视觉特征合成权值的集合,传送给多视觉特征融合状态滤波估计模块;多视觉特征融合状态滤波估计模块,根据合成权值获取模块传送的当前多视觉特征合成权值的集合,计算得到当前子帧的多视觉特征融合状态滤波估计;目标位置确定模块,根据所述多视觉特征融合状态滤波估计,确定出当前子帧的目标位置。
从上述方案可以看出,本发明实施例获得多视觉特征合成权值的集合,根据多视觉特征合成权值的集合计算得到多视觉特征融合状态滤波估计,由多视觉特征融合状态滤波估计确定出当前子帧目标的位置。这样,通过将民主合成机理嵌入到粒子滤波的状态估计过程以实现视觉跟踪,提高了视觉跟踪的可靠性和稳健性。


图1为本发明实施例基于粒子滤波的视觉跟踪系统的结构示意图;图2为本发明实施例基于粒子滤波的视觉跟踪方法的原理性流程图;图3为运用图2所示的原理进行视觉跟踪的一个具体实施例的方法流程图;
图4为本发明实施例基于粒子滤波的视觉跟踪方法的跟踪过程示意图。
具体实施例方式
请参看图1,为本发明实施例基于粒子滤波的视觉跟踪系统的结构示意图,该系统包括合成权值获取模块110、多视觉特征融合状态滤波估计模块120和目标位置确定模块130。
合成权值获取模块110,获取当前多视觉特征合成权值的集合,传送给多视觉特征融合状态滤波估计模块120。
多视觉特征融合状态滤波估计模块120,根据合成权值获取模块110传送的当前多视觉特征合成权值的集合,计算得到当前子帧的多视觉特征融合状态滤波估计。
目标位置确定模块130,根据多视觉特征融合状态滤波估计模块120计算得到的多视觉特征融合状态滤波估计,确定出当前子帧的目标位置。
合成权值获取模块110可以包括单视觉特征状态滤波估计子模块111和状态估计偏差计算子模块112、品质度量计算子模块113和合成权值计算子模块114。
单视觉特征状态滤波估计子模块111,获取当前子帧的单视觉特征状态滤波估计。
获取当前子帧的单视觉特征状态滤波估计为根据采样粒子的权值,计算得到单视觉特征状态滤波估计,其具体计算过程参见步骤201处的描述。
状态估计偏差计算子模块112,根据单视觉特征状态滤波估计子模块111传送的单视觉特征状态滤波估计和多视觉特征融合状态滤波估计模块120传送的多视觉特征融合状态滤波估计,计算得到状态估计偏差。其具体计算过程参见步骤204处的描述。
品质度量计算子模块113,根据状态估计偏差计算子模块计112算得到的状态估计偏差,计算得到视觉特征品质度量。其具体计算过程参见步骤204处的描述。
合成权值计算子模块114,根据品质度量计算子模块113得到的视觉品质度量,计算得到当前多视觉特征合成权值的集合。其具体计算过程参见步骤205处的描述。
本发明实施例的视觉跟踪系统还可以包括特征消失判决模块140和特征产生判决模块150。
特征消失判决模块140,判断合成权值获取模块110传送的多视觉特征合成权值的集合内的各个多视觉特征合成权值是否小于或等于判断值,若是小于或等于判断值,则与该多视觉特征合成权值对应的特征消失,将该多视觉特征合成权值从多视觉特征合成权值的集合中删除。该判断值为一预先设置的常数,可以为0,也可以为其它数值。特征消失的具体判决过程参见步骤3031处的描述。
特征产生模块150,判断出合成权值获取模块110传送的多视觉特征合成权值的集合对应的特征数小于视觉特征阈值后,产生特征标示,为所述特征标示设置对应的多视觉特征合成权值,将该设置的多视觉特征合成权值加入当前多视觉特征合成权值的集合。具体产生特征标示,以及将该设置的多视觉特征合成权值加入当前多视觉特征合成权值的集合的过程,参见步骤3032和3033处的描述。
请参看图2,为本发明实施例基于粒子滤波的视觉跟踪方法的原理性流程图,该方法包括以下步骤步骤201,获得单视觉特征状态滤波估计。单视觉特征状态滤波估计表示为 是k时刻第m个视觉特征的视觉目标状态滤波估计,用于步骤204中计算状态估计偏差。其获得过程具体为首先,对于第m个视觉特征,计算得到采样粒子Xk(i)的权值wk(i),m,计算表达式为wk(i),m∝p(Zk(i),m|Xk(i))---(1)]]>其中,m=1,2......M,m表示特征的序号,i表示采用粒子的序号,k表示时刻,若k=0,表示初始时刻,则当前子帧为初始子帧;wk(i),m表示第m个特征的权值,Zk(i),m表示第m个视觉特征的观测状况;p(Zk(i),m|Xk(i))表示第m个视觉特征的观测概率,∝表示正比于。
然后,根据采样粒子的权值wk(i),m,得到第m个视觉特征的视觉目标状态滤波估计,也就是单视觉特征状态滤波估计 计算表达式为X^km=Σi=1Nwk(i),mXk(i)---(2)]]>步骤202,通过多视觉特征合成权值的集合计算得到多视觉特征融合状态滤波估计 前一子帧的视觉跟踪结束后将获得多视觉特征合成权值的集合,其获取为步骤204和205的过程。若当前子帧为第一子帧,则将预先配置的多视觉特征合成权值的集合作为所述的多视觉特征合成权值的集合。获得多视觉特征融合状态滤波估计的过程具体为首先,定义采样粒子Xk(i)的观测概率p(Zk(i)|Xk(i))的计算表达式,为p(Zk(i)|Xk(i))=Σm=1,...,Mπkmp(Zk(i),m|Xk(i))---(3)]]>其中,m=1,2......M,πkm表示前一子帧的第m个视觉特征的多视觉特征合成权值,将前一子帧的M个视觉特征对应的所有多视觉特征合成权值称为多视觉合成权值的集合,并且Σm=1,...,Mπkm=1;]]>p(Zk(i)|Xk(i))表示采样粒子Xk(i)的观测概率。这里,将(3)式称为加权合成模型。
然后,将前一子帧的多视觉特征合成权值πkm,代入(3)式,得到采样粒子Xk(i)的观测概率p(Zk(i)|Xk(i)),将计算得到的观测概率p(Zk(i)|Xk(i))代入(4)式,通过(4)的正比关系,得到多视觉特征融合下采样粒子Xk(i)的权值wk(i)。
wk(i)∝p(Zk(i)|Xk(i))---(4)]]>最后,根据由(4)式计算得到的采样粒子Xk(i)的权值wk(i),计算得到多视觉特征融合下视觉目标状态滤波估计 计算表达式为
X^k=Σi=1Nwk(i)Xk(i)---(5)]]>多视觉特征融合下视觉目标状态滤波估计 用于步骤203中确定当前子帧的目标位置,以及用于步骤204中计算视觉品质度量。
步骤203,根据获得的多视觉特征融合状态估计 确定出当前子帧的目标位置。
获得的当前子帧的多视觉特征融合状态估计 包含了当前子帧的目标位置的信息,根据 便可确定出当前子帧的目标位置。
对于多视觉特征,视觉目标的状态滤波估计存在两个层次,即单视觉特征状态滤波估计和多视觉特征融合状态滤波估计。步骤201为计算单视觉特征状态滤波估计的过程,步骤202为计算多视觉特征融合状态滤波估计的过程,步骤201和步骤202可同时执行,也可以先执行步骤202和203,再执行步骤201。
步骤204,获得视觉特征品质度量qkm,其具体获得过程包括首先,根据步骤201计算得到的单视觉特征状态滤波估计 和步骤202计算得到的多视觉特征融合状态滤波估计 获得两个层次的状态估计偏差,状态估计偏差表示为dkm,计算表达式为dkm=||X^k-X^km||2---(6)]]>其中,‖·‖2为欧氏范数。
然后,根据求得的状态估计偏差dkm,得到视觉特征品质度量qkm,计算表达式为qkm=A(dkm)---(7)]]>其中,A(·)为实数集到〔0,1〕范围内的映射,0≤qkm≤1.]]>qkm反映了视觉特征m对视觉跟踪结果的贡献率。将(dkm)乘以A是为了使得到的视觉特征品质度量更加光滑。A为一个经验数值。映射A(·)可定义为负指数函数,或0-1函数等其他函数。这里,假设将映射A(·)定义为0-1函数,即为qkm=A(dkm)=1ifdkm≤δ0ifdkm≥δ---(8)]]>其中,δ为状态估计偏差阈值,典型的状态估计偏差阈值可以取为4像素,即δ=4像素。qkm=1]]>表示k时刻视觉特征m对视觉跟踪有较好的贡献,而qkm=0]]>表示k时刻视觉特征m对视觉跟踪无贡献。在该0-1映射下,视觉特征品质度量qkm的初始化值,q0m,根据场景中视觉特征特性先验确定。
步骤205,根据视觉特征品质度量qkm得到多视觉特征合成权值的集合。计算得到的多视觉特征合成权值的集合用于计算下一子帧的多视觉特征融合状态滤波估计。获得多视觉特征合成权值的集合的过程具体包括首先,在粒子滤波理论框架下,将基于视觉特征品质度量的多视觉特征合成权值πkm的自组织修正表示为 其定义为τπ·km=qkm-πkm---(9)]]>在实际视觉跟踪过程中,采用(9)式的差分形式表示经过自组织修正后的多视觉特征合成权值πkm,表达式为πkm=πk-1m+β(qk-1m-πk-1m)---(10)]]>其中,qk-1m-πk-1m=τ·πk-1m,]]>β为合成权值修正率,典型的合成权值修正率取值为0.05,即β=0.05。
然后,对获得的多视觉特征合成权值πkm进行归一化运算。
由于(8)式计算qkm的过程中,进行
映射的运算使qkm不再具有归一化特征,从而使得由(10)式计算得到的πkm也不再具有归一化特征,所以,需要对多视觉特征合成权值πkm进行归一化,归一化方法为对m取值为1,2......M的M个多视觉特征合成权值πkm求和,运用第m个特征对应的多视觉特征合成权值除以该求和值,便得到归一化后的多视觉特征合成权值,m取值为1,2......M的M个归一化后的多视觉特征合成权值组成归一化后的多视觉特征合成权值的集合。归一化的运算表示式为πkm/Σm=1Mπkm.]]>这里所述的归一化运算为广义的归一化,可以是归为“1”的运算,也可以是归为“2”的运算,或归为其它数值的运算。
步骤204和205是计算出的归一化后的πkm的集合将运用于下一子帧的视觉跟踪运算中。也就是,在计算下一子帧的多视觉特征融合状态滤波估计 时,将归一化后的πkm代入(3)式中,继续执行步骤201~205。
上述方案为本发明视觉跟踪方法的基本原理。图2中,步骤201~203为本发明单视觉特征状态滤波估计和多视觉特征融合状态滤波估计过程,也就是粒子滤波过程;步骤204和205为采用民主合成算法得到多视觉特征合成权值的过程。下面结合图3所示的具体实施例,对图2所述的方法进行详细说明。
请参看图3,为运用图2所示的原理进行视觉跟踪的一个具体实施例的方法流程图,该方法包括以下步骤步骤301,进行粒子状态转移。
进行粒子状态转移具体为由特定的状态转移模型和前一子帧的采样粒子计算得到当前时刻的粒子。这里,将前一子帧的采样粒子表示为Xk-1(i),将当前一子帧的采样粒子表示为 前一子帧的采样粒子集表示为{X~k(i),wk(i)}i=1N.]]>由特定的状态转移模型和前一子帧的采样粒子计算得到当前时刻的粒子的方法为本领域技术人员熟知的过程,这里不再赘述。所述的状态转移模型可以为状态运动方程。
若当前子帧为视觉跟踪的初始子帧,则进行粒子状态转移的过程为视觉跟踪的初始化过程,该过程具体包括初始子帧,即k=0时。根据先验分布p(X0)确定初始的采样粒子集,表示为{X0(i),1N}i=1N;]]>对于采样粒子集,初始化多视觉特征合成权值,这里假设将初始化的多视觉特征合成权值表示为π0m=1M,]]>其中,m=1,…,M,这里,将M个多视觉特征合成权值的总和称为多视觉特征合成权值的集合;根据场景中被跟踪视觉目标的视觉特征特性,初始化视觉特征品质度量,表示为q0m。确定状态估计偏差阈值取值和和合成权值修正率,这里假设分别为4和0.05,即δ=4和β=0.05。初始化多视觉特征合成权值和初始化视觉特征品质度量的过程,也就是预先配置多视觉合成权值和视觉特征品质度量的过程。
步骤302,计算单视觉特征状态滤波估计 m的取值为m=1,…,M。按照步骤201计算单视觉特征状态滤波估计,具体过程包括首先,对第m个特征,计算得到采样粒子 的权值wk(i),m,计算表示式为wk(i),m∝p(Z~k(i),m|Xk(i))---(11)]]>其中,m=1,2......M,m表示特征的序号,i表示采用粒子的序号,k表示时刻,若k=0,表示初始时刻,则当前子帧为初始子帧;wk(i),m表示第m个特征的权值,Zk(i),m表示第m个视觉特征的观测状况;p(Zk(i),m|Xk(i))表示第m个视觉特征的观测概率,∝表示正比于。
然后,对计算得到的权值进行归一化,归一化方法为,对i取值为1,2......N的N个权值wk(i),m求和,运用第i个粒子对应的权值除以该求和值,便得到归一化后的权值,运算表示式为wk(i),m/Σi=1Nwk(i),m---(12)]]>这里所述的归一化运算为广义的归一化,可以是归为“1”的运算,也可以是归为“2”的运算,或归为其它数值的运算。
最后,将由(12)式计算得到的权值wk(i),m代入(13)式中,得到第m个视觉特征的视觉目标状态滤波估计,也就是单视觉特征状态滤波估计 计算表达式为
X^km=Σi=1Nwk(i),mX~k(i)---(13)]]>步骤303,计算得到多视觉特征融合下粒子的权值wk(i),具体计算过程为步骤3031,进行视觉特征消失判决。
假设可用于视觉跟踪的视觉特征数为M,每个视觉特征有一个特征标示,将M个特征标示构成的特征标示集表示为Ω。假设k时刻用于视觉跟踪的特征数为Mk,将Mk个特征标示构成的特征标示集表示为Ωk。将用于视觉跟踪的视觉特征下线阈值表示为M0。这里,设M0为典型值2。
视觉特征消失判决具体为判断当前的多视觉特征合成权值的集合内的各个多视觉特征合成权值是否小于或等于判断值,若是小于或等于判断值,则与该多视觉特征合成权值对应的特征消失,将该多视觉特征合成权值从所述的多视觉特征合成权值的集合中删除。该判断值为一预先设置的常数,可以为0,也可以为其它数值。例如,对某一特征m的多视觉特征合成权值πkm进行判断,若判断出πkm小于或等于0,即πkm≤0,]]>表示特征m消失,则该特征对应的多视觉特征合成权值从多视觉特征合成权值的集合中删除,将该特征标示从Ωk中删除,并令Mk=Ω=k;]]>否则,该特征m存在。其中,Ωk表示特征标示集Ωk的势。
上述的多视觉特征合成权值πkm,为前一子帧进行视觉跟踪中计算得到的值,πkm可能是一个很接近于零的值,也可能为负值。
步骤3032,进行视觉特征产生判决,其具体过程包括(1)对特征数Mk进行判断,若特征数Mk小于设置的视觉特征下限阈值M0,即Mk<M0,则执行(2);否则,执行步骤3033。
(2) 产生随机数,表示为u。该随机数可以是〔0,1〕上均匀分布的随机数,也可以是其它任意区间上分布的随机数。
(3)对u乘以M的积取整,取整结果为特征标示,表示为label。取整过程可表示为label=round(uM)。
一个特征标示label对应一个特征。
(4)判断特征标示label是否属于特征标示集Ωk,若不属于,即labelΩk,则该特征标示label对应的特征有效,将特征标示label加入特征标示集Ωk中,并令Mk=Ω=k,]]>执行步骤(5);否则,该特征标示label对应的特征无效,执行步骤(2)。
(5)根据场景中label对应的特征的特性,初始化步骤(4)中加入特征标示集Ωk的特征的视觉品质度量和合成权值,将初始化的多视觉特征合成权值加入多视觉特征合成权值的集合中,执行步骤(1)。初始化方法与步骤301中对初始子帧的的初始化相同,这里不再赘述。
步骤(2)~(5)为随机从特征标示集中选取某个特征,并对该特征的视觉品质度量和合成权值进行初始化的过程。
通过视觉特征消失判决和视觉特征生成判决,降低了多视觉特征融合跟踪的计算复杂度,提高了跟踪算法的实时性。步骤303可以不包括步骤3031和步骤3032。
步骤3033,将步骤(5)得到的多视觉特征合成权值的集合内的各个多视觉特征合成权值πkm代入加权合成模型,即公式(3),计算得到采样粒子Xk(i)的观测概率p(Zk(i)|Xk(i))。将计算得到的观测概率p(Zk(i)|Xk(i))代入(4)式,得到多视觉特征融合下采样粒子Xk(i)的权值wk(i)。对权值wk(i)进行归一化,归一化方法为,对i取值为1,2......N的N个权值wk(i),m求和,运用第i个粒子对应的权值除以该求和值,便得到归一化后的权值,运算表示式为wk(i),m/Σi=1Nwk(i),m.]]>这里所述的归一化运算为广义的归一化,可以是归为“1”的运算,也可以是归为“2”的运算,或归为其它数值的运算。
步骤302和步骤303可以同时执行,也可以先执行步骤303再执行步骤302。
步骤304,将步骤303中计算得到的归一化后的多视觉特征融合下粒子的权值wk(i)代入公式(5),得到当前子帧的多视觉特征融合状态滤波估计 计算表达式为X^kmΣi=1Nwk(i),mXk(i).]]>步骤305,根据步骤304中计算得到的当前子帧的多视觉特征融合状态滤波估计 确定当前子帧的目标位置。
获得的当前子帧的多视觉特征融合状态估计 包含了当前子帧的目标位置的信息,根据 便可确定出当前子帧的目标位置。
步骤306,计算出当前子帧的视觉特征品质度量qkm,具体计算过程包括以下步骤首先,根据步骤302计算得到的单视觉特征状态滤波估计 和步骤304计算得到的归一化的多视觉特征融合状态滤波估计 计算得到两个层次的状态估计偏差dkm,计算表达式为dkm=||X^k-X^km||2]]>其中,‖·‖2为欧氏范数。
然后,根据求得的状态估计偏差dkm,得到视觉特征品质度量qkm,计算表达式为qkm=A(dkm)]]>其中,A(·)为实数集到〔0,1〕范围内的映射,0≤qkm≤1.]]>qkm反映了视觉特征m对视觉跟踪结果的贡献率。将(dkm)乘以A是为了使得到的视觉特征品质度量更加光滑。A为一个经验数值。映射A(·)可定义为负指数函数,或0-1函数等其他函数。这里,假设将映射A(·)定义为0-1函数,即为qkm=A(dkm)=1ifdkm≤δ0ifdkm≥δ]]>其中,δ为状态估计偏差阈值,典型的状态估计偏差阈值可以取为4像素,即δ=4像素。qkm=1]]>表示k时刻视觉特征m对视觉跟踪有较好的贡献,而qkm=0]]>表示k时刻视觉特征m对视觉跟踪无贡献。在该0-1映射下,视觉特征品质度量qkm的初始值,q0m,根据场景中视觉特征特性先验确定。
步骤307,根据视觉特征品质度量qkm得到当前子帧的多视觉特征合成权值πkm。计算得到的多视觉特征合成权值πkm用于计算下一子帧的多视觉特征融合状态滤波估计。获得当前子帧的多视觉特征合成权值πkm的过程具体包括首先,在粒子滤波理论框架下,将基于视觉特征品质度量的多视觉特征合成权值πkm的自组织修正定义为τπ·km=qkm-πkm]]>在实际视觉跟踪过程中,采用(9)式的差分形式表示经过自组织修正后的多视觉特征合成权值πkm,表达式为πkm=πk-1m+β(qk-1m-πk-1m)]]>其中,qk-1m-πk-1m=τ·πk-1m,]]>β为合成权值修正率,典型的合成权值修正率取值为0.05,即β=0.05。
然后,对获得的多视觉特征合成权值πkm进行归一化运算。
由于(8)式计算qkm的过程中,进行
映射的运算使qkm不再具有归一化特征,从而使得由(10)式计算得到的πkm也不再具有归一化特征,所以,需要对πkm进行归一化运算,m取值为1,2......M的M个归一化后的多视觉特征合成权值组成归一化后的多视觉特征合成权值的集合。运算表达式为πkm/Σm=1Mπkm.]]>这里所述的归一化运算为广义的归一化,可以是归为“1”的运算,也可以是归为“2”的运算,或归为其它数值的运算。
步骤306和307是为了计算出归一化后的多视觉特征合成权值的集合。归一化后的多视觉特征合成权值的集合将运用与下一子帧的视觉跟踪运算中。
步骤308,进行粒子重采样。
根据步骤3033中计算得到的归一化后的多视觉特征融合下粒子的权值wk(i),从采样粒子集{X~k(i),wk(i)}i=1N]]>中重新抽取N个粒子,形成新的采样粒子集,表示为{Xk(i),1N}i=1N.]]>将k=k+1后,执行步骤301,进行下一子帧的视觉跟踪运算。
请参看图4,为本发明实施例基于粒子滤波的视觉跟踪方法的跟踪过程示意图。图4跟踪的目标为图像中女士的头像,可以看出,本发明实施例跟踪过程一直锁定为女士的头像。可见,运用本发明实施例的视觉跟踪方法比现有技术具有更高的可靠性和稳健性。
本发明实施例的技术方案可应用于视频监控、视频压缩编码、机器人导航与定位、智能人机交互、虚拟现实,以及成像制导等领域。
本发明实施例的技术方案通过民主合成算法得到多视觉特征合成权值的集合;再根据多视觉特征合成权值的集合计算得到多视觉特征融合状态滤波估后,确定出当前子帧的视觉跟踪的目标位置。也就是,本发明实施例将民主合成机理嵌入到粒子滤波过程中,实现了视觉跟踪。这样,使视觉跟踪具有较高的可靠性和稳健性,实现了复杂场景下的视觉跟踪,提高了视觉跟踪算法的效率,满足了实际视觉跟踪应用系统的实时性要求。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
权利要求
1.一种基于粒子滤波的视觉跟踪方法,其特征在于,该方法包括步骤根据当前多视觉特征合成权值集合计算得到当前子帧的多视觉特征融合状态滤波估计,所述多视觉特征融合状态滤波估计包含目标位置信息;及根据所述目标位置信息确定视觉跟踪的当前子帧的目标位置。
2.如权利要求1所述的方法,其特征在于,若所述当前子帧为第一子帧,将预先配置的多视觉特征合成权值集合作为所述多视觉特征合成权值集合。
3.如权利要求1所述的方法,其特征在于,所述根据当前多视觉特征合成权值集合计算得到当前子帧的多视觉特征融合状态滤波估计,包括对于多视觉特征合成权值集合内的每一个多视觉特征合成权值,判断该多视觉特征合成权值是否小于或等于判断值,若是小于或等于所述判断值,则与该多视觉特征合成权值对应的特征消失,将该多视觉特征合成权值从所述的多视觉特征合成权值集合中删除。
4.如权利要求1或3所述的方法,其特征在于,所述根据当前多视觉特征合成权值集合计算得到当前子帧的多视觉特征融合状态滤波估计,进一步包括步骤判断当前多视觉特征合成权值集合内所有多视觉特征合成权值对应的特征数是否小于预先设置的视觉特征下限阈值,若是,执行产生随机数的步骤,否则,继续执行所述的根据所述目标位置信息确定视觉跟踪的当前子帧的目标位置的步骤;产生随机数;对所述随机数乘以所述的特征数,将得到的乘积取整,得到特征标示;判断所得到的特征标示是否属于特征标示集,若不属于,将所得到的特征标示加入特征标示集,执行为加入特征标示集的特征标示设置对应的多视觉特征合成权值的步骤;否则,该特征标示对应的特征无效,执行所述的产生随机数的步骤,其中,特征标示集为当前多视觉特征合成权值集合内所有多视觉特征合成权值对应的特征的特征标示所组成的集合;为加入特征标示集的特征标示设置对应的多视觉特征合成权值,将该设置的多视觉特征合成权值加入多视觉特征合成权值集合中,执行所述的判断当前多视觉特征合成权值集合内所有多视觉特征合成权值对应的特征数是否小于预先设置的视觉特征下限阈值的步骤。
5.如权利要求1所述的方法,其特征在于,所述计算得到当前子帧的多视觉特征融合状态滤波估计的步骤具体包括确定当前的采样粒子集;根据当前多视觉特征合成权值集合以及加权合成模型,得到当前采样粒子集中采样粒子的观测概率;根据所述观测概率得到归一化后的多视觉特征融合下所述采样粒子的权值;根据归一化后的多视觉特征融合下所述采样粒子的权值,获得当前子帧的多视觉特征融合状态滤波估计。
6.如权利要求5所述的方法,其特征在于,所述确定当前的采样粒子集的步骤包括根据前一子帧中多视觉特征融合下采样粒子的权值,从上一帧的采用粒子集中重新抽取粒子,形成当前的采样粒子集。
7.如权利要求1所述的方法,其特征在于,所述的当前多视觉特征合成权值集合的获取包括获得前一子帧的单视觉特征状态滤波估计;根据前一子帧的单视觉特征状态滤波估计和前一子帧的多视觉特征融合状态滤波估计,获得状态估计偏差;根据所述状态估计偏差获得视觉特征品质度量;根据所述视觉品质度量获得多视觉特征合成权值集合。
8.如权利要求7所述的方法,其特征在于,所述前一子帧的单视觉特征状态滤波估计根据前一子帧中采样粒子的权值获得。
9.一种基于粒子滤波的视觉跟踪系统,其特征在于,该系统包括合成权值获取模块、多视觉特征融合状态滤波估计模块和目标位置确定模块;合成权值获取模块,获取当前多视觉特征合成权值集合;多视觉特征融合状态滤波估计模块,根据当前多视觉特征合成权值集合,计算得到当前子帧的多视觉特征融合状态滤波估计;目标位置确定模块,根据所述多视觉特征融合状态滤波估计,确定出当前子帧的目标位置。
10.如权利要求9所述的系统,其特征在于,所述合成权值获取模块包括单视觉特征状态滤波估计子模块、状态估计偏差计算子模块、品质度量计算子模块和合成权值计算子模块;单视觉特征状态滤波估计子模块,获得当前子帧的单视觉特征状态滤波估计;状态估计偏差计算子模块,根据所述单视觉特征状态滤波估计和多视觉特征融合状态滤波估计模块传送的多视觉特征融合状态滤波估计,计算得到状态估计偏差;品质度量计算子模块,根据所述状态估计偏差计算得到视觉特征品质度量;合成权值计算子模块,根据品质度量计算模块得到的视觉品质度量,计算得到当前多视觉特征合成权值集合。
11.如权利要求9或10所述的系统,其特征在于,该系统进一步包括特征消失判决模块;特征消失判决模块,判断多视觉特征合成权值集合内的各个多视觉特征合成权值是否小于或等于判断值,若是小于或等于所述判断值,则与该多视觉特征合成权值对应的特征消失,将该多视觉特征合成权值从多视觉特征合成权值集合中删除。
12.如权利要求9或10所述的系统,其特征在于,该系统进一步包括特征产生模块,判断出多视觉特征合成权值集合对应的特征数小于视觉特征阈值后,产生特征标示,为所述特征标示设置对应的多视觉特征合成权值,将该设置的多视觉特征合成权值加入当前多视觉特征合成权值集合。
全文摘要
本发明实施例公开了一种基于粒子滤波的视觉跟踪方法,该方法包括根据当前多视觉特征合成权值集合计算得到当前子帧的多视觉特征融合状态滤波估计,所述多视觉特征融合状态滤波估计包含目标位置信息;及根据所述目标位置信息确定视觉跟踪的当前子帧的目标位置。本发明实施例还公开了一种基于粒子滤波的视觉跟踪系统。本发明实施例方案将民主合成机理嵌入到粒子滤波的状态估计过程中以实现视觉跟踪,这样,提高了视觉跟踪的可靠性和稳健性。
文档编号G06T7/00GK101026759SQ20071009088
公开日2007年8月29日 申请日期2007年4月9日 优先权日2007年4月9日
发明者杨杰, 程建, 凌建国, 张翼 申请人:华为技术有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1