一种基于光流特征的视频目标检测与跟踪方法与流程

文档序号:12064317阅读:215来源:国知局
一种基于光流特征的视频目标检测与跟踪方法与流程

本发明属于视觉图像处理技术领域,涉及目标检测与跟踪方法,特指一种基于光流特征的视频目标检测与跟踪方法。



背景技术:

运动目标的检测与跟踪是计算机视觉研究中的热点和难点之一。运动目标的检测与跟踪在智能交通、安全监控以及军事领域有着广阔的应用前景。无人机具有高机动性、高分辨率、隐蔽性好、操作灵活等优势,利用无人机搭载的视频传感器对地面运动目标进行跟踪与分析,具有重要的实践意义和理论价值。

然而由于视频传感器随着无人机的高速运动而运动以及视频序列影像中背景的复杂性和运动目标信息的多样性的特点,使得处理目标检测跟踪的问题变得更加困难。

运动目标的检测是实现目标跟踪以及运动目标分析、处理的基础,根据摄像机运动的情况,可以将运动目标检测分为静止背景的目标检测和运动背景的目标检测。

近年来,国内外研究者提出了许多运动目标检测的方法,主要包括静止背景下的帧差法、背景相减法、期望最大化法和基于图论的方法等,动态背景下的光流法、统计模型法、水平集方法等。帧差法是将连续两帧影像对应像素点的灰度值相减,判断差值的大小来确定该像素属于背景还是运动目标,再利用这些像素区域计算出运动目标在图像中的位置,该方法计算简单、快速,但由于影像中目标大小、背景亮度不同,使得检测效果容易受到不良影响。将光流技术引入到运动目标检测跟踪研究中,不需要预先知道场景的任何先验信息,根据各个像素点的速度矢量特征,对图像进行动态分析,能够检测出独立运动目标。

运动目标跟踪是在检测基础上对目标运动状态的进一步分析,主要分为两类,一是基于运动目标先验知识的跟踪,先检测提取影像中的运动目标并建模,再通过模板匹配等策略找到下一帧图像中相应目标区域位置,实现目标跟踪;二是不依赖运动目标的先验知识,直接从视频序列图像中检测运动目标,并对感兴趣的目标进行跟踪。目标跟踪算法与目标的有效表达形式密切相关,目标的描述方式主要包括质心法、区域法、特征点法以及边缘轮廓等方法,可以大致的概括为4类:基于特征的跟踪、基于区域的跟踪、基于轮廓的跟踪和基于模型的跟踪。基于特征的跟踪法,通过提取运动目标的显著特征来实现目标跟踪,该算法不受目标发生变形或光照变化的影响,目标部分遮挡情况下也能实现跟踪,但如何选择和描述目标特征,实现运动目标的持续跟踪是难点;基于区域跟踪法首先利用运动目标检测方法分割提取包含运动目标的区域,以矩形或椭圆形成一个模板来表示该区域,然后利用灰度或颜色相关的算法对下一帧进行匹配,从而实现跟踪,该算法在目标没有遮挡前提下,实现稳定跟踪,当目标形变或遮挡区域较大时,跟踪精度下降;基于轮廓的跟踪法是对目标边界轮廓进行跟踪处理,利用目标轮廓的全局信息获取一条封闭的曲线,不需要目标先验知识,但该方法需要人工干预进行初始化,计算非常耗时;基于模型跟踪法,首先建立目标形态模型和运动模型,再根据实际视频序列图像确定模型参数和运动参数,从而实现目标跟踪,但实际场景中要获得精确的目标真实模型非常困难。



技术实现要素:

本发明的目的在于提出一种基于光流特征的视频目标检测与跟踪方法,其创新性在于克服传统帧差法和背景补偿法在运动背景下检测目标的空洞效应,通过局部方差非均匀采样方法避免LK光流法在稀疏纹理特征点上的漂移现象,将目标运动显著性和颜色、纹理等多特征融合,提高目标检测的成功率,实现快速、有效地持续跟踪。

本发明的技术方案是,

一种基于光流特征的视频目标检测与跟踪方法,分为两大步骤,第一步为视频目标检测:首先基于背景局部邻域方差的等间隔采样方法对输入的图像帧序列进行背景采样,计算采样后的每个像素点的光流矢量,并通过Mean Sift算法估计背景运动;其次以目标的运动显著性为主、颜色显著性为辅,结合光流法和颜色显著性算法共同估计目标的整体显著性,最后通过目标显著性检测的结果设定阈值,实现目标区域与背景区域的分离。第二步为视频目标跟踪:首先选取第一步中通过目标检测得到的目标区域为正样本,背景区域为负样本;利用Haar特征和目标全局颜色特征对目标进行描述,并采用随机矩阵的方式对原有特征进行抽样压缩;通过贝叶斯准则判断它与上一帧目标的相似性,最后利用粒子滤波算法对目标进行持续跟踪。

具体地,本发明一种基于光流特征的视频目标检测与跟踪方法,包括以下步骤:

S1、视频目标检测

S11、输入无人机视频序列,基于背景局部邻域方差的等间隔采样方法对输入的图像帧序列进行背景采样,通过box-filter(如5*5为局部)方法计算出每个像素点的局部邻域方差,根据背景图像的局部方差分布图设定阈值,对图像进行分区域采样,滤除部分不利于LK算法匹配的采样点,同时保留目标所在位置的采样点。

设当前输入图像的宽为W,高为H,在图像区域内定义box矩形模板的宽为m,高为n,采用黑色方块代表图像区域内的像素,每个黑色方块代表一个像素,1#矩形框表示box矩形模板,2#矩形框表示输入图像宽W和box矩形模板高n形成的区域范围,3#矩形框为1*m的矩形框,3#矩形框中的灰色方块记为buff,用来存储计算过程中的中间变量;从box矩形模板左上角(x,y)为(0,0)开始,逐个像素向右滑动,到达行末时转移到下一行的开头(0,1),以此类推;将2#矩形框内的每一列像素求和,每一列像素求和的结果放在灰色方块buff内,再对3#矩形框内的像素求和,结果即为1#矩形框即box矩形模板内的像素和,存放到预先初始化定义的数组A中,完成第一次求和运算;3#矩形框当前位置的像素和Sum[i]为向右移动之前的像素和Sum[i-1]减去3#矩形框内的第一个灰色方块buff[x-1]再加上3#矩形框右边缘的第一个灰色方块buff[x+m-1],即通过buff更新间接地求出滑动box内的所有像素和,表达式如下:

其中,i的初始值为0,同理,定义SquareSum为滑动box内的所有像素平方和,3#矩形框当前位置的像素平方和SquareSum[i]为向右移动之前的像素平方和SquareSum[i-1]减去3#矩形框内的第一个灰色方块像素平方和SquareSum[x-1]再加上3#矩形框它右边缘的第一个灰色方块像素平方和SquareSum[x+m-1],则有:

联立表达式(1)和(2),可求得背景图像的局部邻域方差Var(x,y)的表达式如(3)式所示:

Var(x,y)=SquareSum(x,y)-[Sum(x,y)/(m*n)]2 (3)

通过计算得到背景图像的局部邻域方差分布图之后,通过设定方差阈值,在背景局部邻域方差大于设定的方差阈值的区域则设置较小的间隔阈值(如采样间隔为2),即采样密度大,得到采样点多,在背景局部邻域方差小于设定的方差阈值的区域则设置较小的间隔阈值(如采样间隔为10),即采样密度小,得到采样点少,滤除不易于LK算法匹配的采样点,同时保留目标所在位置的采样点。方差过小的区域是不利于LK算法作为匹配点的,但是为了保留目标在图像中的相对位置,因此并非完全滤除方差值过小区域,而是在方差大的区域进行多采样,因为在方差大的区域的采样点利于LK算法匹配,方差小的区域少采样目的在于保留目标在图像中的相对位置。

S12、由步骤S11得到采样后的像素点集合,通过LK光流法计算集合中每个像素点的光流矢量,通过Mean Shift算法估计出背景的运动矢量;

利用LK光流法计算采样后的像素点集合S中每个像素点的光流矢量,第j个采样点表示为Sj={Cj,Vj},Cj为采样点的坐标,Vj为采样点的位移,将所有采样点映射到极坐标(r,θ)上,N为采样点个数,则以Vj均值作为Mean Shift迭代初始值的表达式为:

由Mean Shift迭代步骤找出核密度最大的位置,核中心坐标即为背景的运动矢量Vb

S13、估计目标整体显著性,分为背景中无运动目标和背景中有运动目标两种情形,两种情形估计目标整体显著性的方法分别如下:

(1)背景中无运动目标时,以背景图像运动显著性分布为整体显著性分布估计,其定义式为:式中K为采样点Ci的局部邻域,Sm表示每个采样点与周围背景的运动矢量差异性的集合。根据背景运动矢量Vb和第j个采样点的位移Vj的差值来反映采样点与背景之间的差异度。采样点与背景之间的差异度越大,其背景图像的运动显著性越大。

(2)背景中有运动目标时,以运动显著性分布为主,颜色显著性为辅估计目标整体显著性。

运动显著性的计算方法在(1)背景中无运动目标情形中已经给出。在背景中有运动目标时,采用与(1)中相同的方法计算运动显著性Sm

基于颜色对比度的Center-Surround模型,通过像素点在邻域空间的特征差异度来计算颜色显著性,定义式为Sc=Pc*G,其中Sc表示某像素点的颜色显著性,Pc为该像素点在邻域内像素点显著性概率分布图中对应的概率值,G为邻域内高斯函数。通过颜色显著性计算得到图像的颜色显著性分布图,颜色显著性分布图上亮度越大则表明该像素点越显著。

然后利用S=αSm+(1-α)Sc,将运动显著性Sm和颜色显著性Sc进行线性加权估计目标整体显著性,α取0.6。

S14、由S13中得到的目标整体显著性分布估计结果设定分割阈值,实现目标区域与背景区域的分离。

通过对大量视频数据的分析和比较,得出背景显著性约为0.1,即取背景显著性为0.1作为分割阈值,实现目标区域与背景区域的分离。

S2视频目标跟踪

S21、将目标区域与背景区域分离之后,对目标边缘进行标注,提取目标边缘E,以E为起始位置,设置半径为r,在E+r范围内对正样本图像采样,在E-r范围外对负样本图像采样,其中正样本图像为包含目标在内的样本图像,负样本为背景图像;

S22、对S21得到的正样本图像进行目标描述,利用Haar特征描述目标纹理特征,采用YUV局部颜色直方图模型描述目标颜色特征;

利用Haar特征描述目标纹理特征的方法为:设Ti,ti为两类不重复的随机矩形卷积窗,I为输入图像,g表示特征函数,定义Haar特征的定义式为j∈[1,2],j∈N。分别设定两者(两个矩形卷积窗Ti和ti)的比较阈值以及两者间的差值阈值,当两者的取值都小于比较阈值同时两者间的差值小于差值阈值时,即当两者取值都较小时,g能够描述目标的边缘特征;当两者的取值都大于比较阈值同时两者间的差值小于差值阈值时,即当两者(两个矩形卷积窗Ti和ti)取值都较大时,g能够描述目标的整体特征;当两者中一个的取值大于比较阈值、另一个的取值小于比较阈值且两者间的差值大于差值阈值时,即当两者取值为一大一小且差值较大时,g能够描述目标的局部特征分布情况。当两个窗口的取值不同时,侧重描述目标不同的图像特征,两者具体取值情况以及阈值的设定根据跟踪所提取目标特征而定。

YUV局部颜色直方图模型是在灰度模型的基础上发展而来的,既包含了目标的灰度信息,也包含目标的颜色信息,能够更加准确地描述目标颜色,是颜色描述的常用方法之一。

S23采用稀疏矩阵压缩方式对S22得到的Haar特征进行抽样压缩,通过贝叶斯准则判断它与上一帧目标的相似性,利用粒子滤波算法对目标进行持续跟踪。

初始化目标位置与Haar特征,在目标周围以R为半径,等权重地均匀投放粒子,通过贝叶斯准则计算每个粒子与目标的相似度,公式(5)如下:

其中,以所有粒子加权重心位置为圆心,将投放的粒子按照距离圆心半径尺度分为n个层级,以p(y=1)表示粒子属于正样本区域的概率,p(y=0)表示粒子属于负样本区域的概率,则p(vi|y=1)表示粒子位于第i层级条件下且属于正样本区域的概率,p(vi|y=0)表示粒子位于第i层级条件下且属于负样本区域的概率。

根据概率论与数理统计学知识可以由均值(即期望)和标准差(即方差)近似得到正样本p(vi|y=1)和负样本p(vi|y=0)的概率,即其中N表示离散型随机变量函数,μ1和δ1分别为正样本的均值和标准差,μ0和δ0分别为负样本的均值和标准差,目标的最终位置由所有粒子加权估计得到,如式子(6)所示,式中Li表示每个粒子的位置,L'表示最终目标位置。

本发明的有益效果是:

本发明提出了一种基于光流特征的视频目标检测与跟踪方法,其创新性在于克服传统帧差法和背景补偿法在运动背景下检测目标的空洞效应,通过局部方差非均匀采样方法避免LK光流法在稀疏纹理特征点上的漂移现象,将目标运动显著性和颜色、纹理等多特征融合,提高目标检测的成功率,实现快速、有效地持续跟踪

附图说明

图1本发明的流程框图。

图2图像帧背景采样示意图。

图3 Mean Shift求取背景矢量示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。

通过模拟人类对周围事物感知的过程,将注意力集中在目标上而忽略环境中其它背景部分的影响,本发明提出了一种基于光流特征的视频目标检测与跟踪系统,实现对视频序列中的运动目标检测和持续跟踪,从而达到实时性和稳定性的要求。

如图1所示,为本发明的流程框图,第一步是视频目标检测阶段。

首先利用无人机拍摄获取场景的时间序列影像,基于背景局部邻域方差的等间隔采样方法对输入的图像帧序列进行背景采样,通过box-filter方法计算出每个像素点的局部邻域方差,根据背景图像的局部方差分布图设定阈值,对图像进行分区域采样,滤除部分不利于LK算法匹配的采样点,同时保留目标所在位置的采样点。其次对采样后的视频序列进行目标检测,目标检测部分主要基于背景运动估计和目标显著性估计两个方面来分离背景和目标,通过LK光流法与Mean Shift算法相结合估计出背景的运动矢量,并通过GPU并行运算进行优化。估计目标整体显著性时分为背景中无运动目标和背景中有运动目标两种情形,背景中无运动目标时,以背景图像运动显著性分布为整体显著性分布估计;背景中有运动目标时,以运动显著性为主、颜色显著性为辅进行融合,得到目标整体显著性。最后对检测出来的目标进行跟踪,目标跟踪部分主要包括特征提取、目标描述、相似性准则和搜索策略的选取。利用Haar特征和目标全局颜色特征对目标正负样本进行描述,采用随机矩阵的方式对原有特征进行抽样压缩,通过贝叶斯准则判断它与上一帧目标的相似性,利用粒子滤波算法对目标进行跟踪,使目标搜索能在深度和广度之间取得平衡,解决粒子数匮乏现象。

由于图像上质量好的光流点易于匹配,其后续计算更加准确,质量差的光流点会带来较大的匹配误差和背景噪音,因此选择适合LK算法匹配的光流点十分关键。本发明通过box-filter(如5*5为局部)方法计算出每个像素点的局部邻域方差,滤出方差较大的像素点,并对滤波后的像素点进行等间隔采样。设当前输入图像的宽为W,高为H,在图像区域内定义box模板的宽为m,高为n,如图2所示,采用黑色方块代表图像区域内的像素,每个黑色方块代表一个像素,1#矩形框表示5*5(m和n均为5)的box矩形模板,2#矩形框表示输入图像宽W和box矩形模板高n形成的区域范围,即2#矩形框为W*5的矩形框,3#矩形框为1*5的矩形框,3#矩形框中的灰色方块记为buff,用来存储计算过程中的中间变量。从box矩形模板左上角(x,y)为(0,0)开始,逐个像素向右滑动,到达行末时转移到下一行的开头(0,1),以此类推;将2#矩形框内的每一列像素求和,每一列像素求和的结果放在灰色方块buff内,再对3#矩形框内的像素求和,结果即为1#矩形框即box矩形模板内的像素和,存放到预先初始化定义的数组A中,完成第一次求和运算;3#矩形框当前位置的像素和Sum[i]为向右移动之前的像素和Sum[i-1]减去3#矩形框内的第一个灰色方块buff[x-1]再加上3#矩形框右边缘的第一个灰色方块buff[x+m-1],即通过buff更新间接地求出滑动box内的所有像素和,表达式如下:

其中,i的初始值为0,同理,定义SquareSum为滑动box内的所有像素平方和,3#矩形框当前位置的像素平方和SquareSum[i]为向右移动之前的像素平方和SquareSum[i-1]减去3#矩形框内的第一个灰色方块像素平方和SquareSum[x-1]再加上3#矩形框它右边缘的第一个灰色方块像素平方和SquareSum[x+m-1],则有:

联立表达式(1)和(2),可求得背景图像的局部邻域方差Var(x,y)的表达式如(3)式所示:

Var(x,y)=SquareSum(x,y)-[Sum(x,y)/(m*n)]2 (3)

通过计算得到背景图像的局部邻域方差分布图之后,通过设定方差阈值。在背景局部邻域方差大于方差阈值的地方则设置采样间隔阈值为2,即采样密度大,得到采样点多,在背景局部邻域方差小于方差阈值的地方则设置采样间隔阈值为10,即采样密度小,得到采样点少,滤除不易于LK算法匹配的采样点,同时保留目标所在位置的采样点。方差过小的区域是不利于LK算法作为匹配点的,但是为了保留目标在图像中的相对位置,因此并非完全滤除方差值过小区域,而是在方差大的区域进行多采样(目的:该区域的采样点利于LK算法匹配),方差小的区域少采样(目的:保留目标在图像中的相对位置)。

利用LK光流法计算S11采样后的像素点集合S中每个像素点的光流矢量,第j个采样点表示为Sj={Cj,Vj},Cj为采样点的坐标,Vj为采样点的位移,将所有采样点映射到极坐标(r,θ)上,N为采样点个数,则以Vj均值作为Mean Shift迭代初始值的表达式为:

由Mean Shift迭代步骤找出核密度最大的位置,核中心坐标即为背景的运动矢量Vb

对Mean Shift算法进行了部分改进,即核半径会随着核内样本点的多少进行轻微的调整,当检测到Mean Shift核半径内的样本数量少于一定数量时,核的半径会增加,这样做的好处是保证了核内样本总是保持在一定的数量上,这样可降低个别错误样本对总体样本均值的影响。如图3所示为一张Mean Shift计算背景矢量的示意图,其中箭头表示背景运动矢量,灰色圆圈表示核的收敛位置和大小,通过均值漂移运算,最终找到密度最大的位置,即背景运动矢量。

估计目标整体显著性,分为背景中无运动目标和背景中有运动目标两种情形,两种情形估计目标整体显著性的方法分别如下:

(1)当背景中无运动目标时,以背景图像运动显著性分布为整体显著性分布估计,根据背景运动矢量Vb和第j个采样点的位移Vj的差值,可得到背景图像的运动显著性分布定义式为:式中K为采样点Ci的局部邻域,Sm表示每个采样点与周围背景的运动矢量差异性的集合。根据背景运动矢量Vb和第j个采样点的位移Vj的差值来反映采样点与背景之间的差异度。采样点与背景之间的差异度越大,其背景图像的运动显著性越大。

(2)当背景中有运动目标或目标运动微弱时,目标运动显著性不能完整地描述出感兴趣目标,这种情况下采用颜色显著性分布对运动目标显著性分布进行补偿。

首先采用与(1)中即当背景中无运动目标时相同的方法计算运动显著性Sm。同时以基于颜色对比度的Center-Surround模型计算图像的颜色显著性,并通过GPU并行运算进行优化,将目标的运动显著性和颜色显著性进行融合,得到目标整体显著性。通过像素点在邻域空间的特征差异度来计算颜色显著性,定义式为Sc=Pc*G,其中Sc表示某点的颜色显著性,Pc为该点在邻域内像素点显著性概率分布图中对应的概率值,G为邻域内高斯函数。通过计算得到图像的颜色显著性分布图,分布图上亮度越大则表明该像素点越显著。然后利用S=αSm+(1-α)Sc,将运动显著性Sm和颜色显著性Sc进行线性加权估计目标整体显著性,α取0.6。

最后由目标整体显著性分布结果设定阈值,通过对大量视频数据的分析和比较,得出背景显著性约为0.1,即取其为分割阈值(即背景显著性为0.1),将检测目标区域与背景区域分离。

第二步是,视频目标跟踪阶段。

在视频目标跟踪阶段,本发明使用了一种具有一定全局特征的类Harr特征对目标进行描述,同时增加了一维颜色特征,使得目标特征在整体和局部之间取得平衡,局部纹理特征能够捕捉目标的细微变化和识别遮挡,新增的全局颜色特征能够适应目标的旋转、缩放等整体变化,兼顾了特征空间中的低频成分和高频成分,使跟踪效果得到了显著提高。最后采用随机矩阵的方式对原有特征进行抽样压缩,并使用粒子滤波算法实现目标的持续跟踪,去掉了部分冗余计算,使算法的运算速度得到显著提升。具体步骤为:

(1)第一步将目标区域与背景区域分离之后,对目标边缘进行标注,提取目标边缘E,以E为起始位置,设置半径为r,在E+r范围内对正样本图像(包含目标在内的样本图像)采样,在E-r范围外对负样本图像(背景图像)采样;

(2)对步骤(1)得到的正样本图像进行目标描述,利用Haar特征描述目标纹理特征,采用YUV局部颜色直方图模型描述目标颜色特征。

原Haar特征方法其定义式为j∈[2,4],j∈N,其中,ti为不重复的随机矩形卷积窗,I为输入图像,g表示特征函数。由定义式可以看出,虽然Haar特征可以描述目标局部的细节,但求和运算在一定程度上平滑了目标的局部纹理,使目标的局部对比度有所下降,当目标出现变形或遮挡时,这种特征定义方式不能完全表述出目标的特征变化,目标有可能会发生跟踪丢失,漂移等情况,因此不能完全描述出目标的纹理特征。

本发明通过取两个不重复的随机矩形卷积窗Ti和ti,使特征描述中包含目标的梯度信息,兼顾目标的局部边缘和全局对比度信息,重新定义Haar特征的定义式为j∈[1,2],j∈N。分别设定两者的比较阈值以及两者间的差值阈值,当两者的取值都小于比较阈值同时两者间的差值小于差值阈值时,g能够描述目标的边缘特征;当两者的取值都大于比较阈值同时两者间的差值小于差值阈值时,g能够描述目标的整体特征;当两者中一个的取值大于比较阈值、另一个的取值小于比较阈值且两者间的差值大于差值阈值时,g能够描述目标的局部特征分布情况。本发明方法兼顾了目标描述部分的高频和低频分量,能够从不同的频点分析描述目标。

为了更准确的描述目标全局特征,增加一维颜色特征对目标进行描述,采用YUV局部颜色直方图模型来描述目标全局颜色分布,YUV模型在灰度模型的基础上发展而来的,既包含了目标的灰度信息,也包含目标的颜色信息,能够更加准确地描述目标颜色,是颜色描述的常用方法之一。它具有计算简单,描述力强的优点,能够快速捕捉目标的整体移动且不受目标旋转、形变的干扰。

(3)采用稀疏矩阵压缩方式对步骤(2)得到的Haar特征进行抽样压缩,以贝叶斯准则作为当前目标位置与上一帧目标位置的相似性量度,通过粒子滤波算法对目标进行跟踪。

由于Haar特征数量非常多,远远超出了跟踪计算要求的实时性标准,因此在使用Haar特征时,通常会采用一定的筛选或压缩方式对这些特征进行处理。采用稀疏矩阵的压缩方式直接对压缩后的Haar特征进行匹配计算,一方面保证了计算的实时性,另一方面可以由压缩后的特征完全复原出原始特征,保证跟踪算法的准确性;对于颜色特征,要求的特征数量较少,因此不必对颜色特征压缩。

目标跟踪过程就是在图像序列中通过迭代寻找与标准目标特征最相似的候选区域,候选区域的选取方式是遍历上一帧目标区域的邻近区域。初始化目标位置与Haar特征,在目标周围以R为半径,等权重地均匀投放粒子,通过贝叶斯准则计算每个粒子与目标的相似度,公式(5)如下:

其中,以所有粒子加权重心位置为圆心,将投放的粒子按照距离圆心半径尺度分为n个层级,以p(y=1)表示粒子属于正样本区域的概率,p(y=0)表示粒子属于负样本区域的概率,则p(vi|y=1)表示粒子位于第i层级条件下且属于正样本区域的概率,p(vi|y=0)表示粒子位于第i层级条件下且属于负样本区域的概率。

根据概率论与数理统计学知识可以由均值(即期望)和标准差(即方差)近似得到正样本p(vi|y=1)和负样本p(vi|y=0)的概率,即其中N表示离散型随机变量函数,μ1和δ1分别为目标样本的均值和标准差,μ0和δ0分别为背景样本的均值和标准差,目标的最终位置由所有粒子加权估计得到,如式子(6)所示,式中Li表示每个粒子的位置,L'表示最终目标位置。

以上包含了本发明优选实施例的说明,这是为了详细说明本发明的技术特征,并不是想要将发明内容限制在实施例所描述的具体形式中,依据本发明内容主旨进行的其他修改和变型也受本专利保护。本发明内容的主旨是由权利要求书所界定,而非由实施例的具体描述所界定。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1