基于蛙眼视觉特性的前视声呐目标跟踪方法与流程

文档序号:15882947发布日期:2018-11-09 18:18阅读:734来源:国知局

本发明属于图像处理技术领域,涉及基于蛙眼视觉特性的运动滤波,针对水下前视声呐视频图像的改进跟踪算法。



背景技术:

海洋中蕴含大量的资源,对海洋的探索不仅有巨大的社会意义也有很强的军事战略意义。常见的水下探测技术有光学成像技术(水下摄像机等)、声呐成像技术(前视声呐等)。光学探测仪器能产生较为直观的图像,但由于光在水下穿透性差,抗干扰能力弱,一般探测范围在几米至几十米之间,且在浑水场合基本失效。声呐成像具有作用距离远、穿透能力强等优点,特别适用于浑水域,因而在海洋调查勘测、水下目标探测等领域得到了广泛应用。

目前,基于前视声呐的目标跟踪方面的研究还处于初级阶段,相关的研究算法主要是借鉴光学图像中较为传统的跟踪方法,主要包括利用隐马尔可夫模型、卡尔曼滤波、粒子滤波等方法进行跟踪,效果都不十分理想。粒子滤波算法主要是基于贝叶斯估计的一种与蒙特卡罗算法类似的滤波算法,其核心思想是利用那些随机分布在图像中的粒子在一定条件的更新过程中,与其相应的粒子权重来模拟下一个时刻中后验概率,并且用粒子样本的均值来取代整个积分运算,计算并估计出状态的最小方差。为了得到更加精确的跟踪预测结果,需要粒子的个数也就越多,这必然增加了计算复杂度,导致粒子滤波的跟踪实时性较差;并且由于目标跟踪过程中易出现目标尺度、姿态变化等不利因素,导致粒子滤波易产生跟踪漂移的情况。

视频图像序列中的运动目标物体一般都存在于一个时空上下文的环境中。空间上下文环境包括目标本身及周围一定范围内的背景;时间上下文是指跟踪视频中前后相关的一系列帧的集合及其它们之间的对应关系。基于时空上下文的运动目标跟踪是指,利用目标物体与上下文环境之间的关系,预测在下一时刻中目标可能出现的位置,主要包括利用目标物体本身的局部子区域、与目标物体相关的邻近背景、目标物体的运动轨迹之间的联系等信息对下一时刻的目标位置进行合理的推测。当目标物体处于一个复杂环境中,出现部分遮挡或者产生一些形变时,可通过时空上下文跟踪方法实现对目标的精确定位,然而如果目标运动速度过快或者目标尺度发生较大变化时,跟踪结果就会发生错误。

结合粒子滤波全局搜索的优点以及时空上下文精确局部区域跟踪的特性,首先利用粒子滤波方法在局部大范围区域内粗略估计运动目标方位,在粗略估计的位置基础上运用时空上下文对目标位置进行精确定位。其中,时空上下文跟踪算法中的基本运算单位参考粒子滤波中粒子的概念用降采样后的像素点及周围相应区域代替原有图像的像素点。该改进的跟踪算法在目标跟踪框架、目标搜索范围、特征选择、多尺度特征匹配、更新目标窗口尺度等方面都做出了相应的改进,使得此改进跟踪算法在目标跟踪过程中面对明暗变化、复杂背景、目标遮挡、目标尺度与姿态变化、视角变化以及噪声强等干扰因素时具有精度高、鲁棒性与适应性强的特点。专利检索及对国内外各种科技文献的最新检索表明,在前视声呐目标跟踪领域尚未有基于蛙眼视觉特性的改进时空上下文跟踪算法见诸文献。



技术实现要素:

本发明所要解决的技术问题是:水下前视声呐图像的分辨率低、纹理弱、边缘模糊与噪声强,基于前视声呐的目标跟踪效果不佳。

为解决上述技术问题,本发明提供了一种基于蛙眼视觉特征的前视声呐目标跟踪改进时空上下文方法:利用一种蛙眼时空滤波算子,有效地凸显前视声呐图像中运动目标的边缘特征;结合粒子滤波全局搜索的优点以及时空上下文局部区域精确跟踪的特性,利用改进的时空上下文跟踪算法实现对前视声呐图像中目标的精确跟踪。

一种基于蛙眼视觉特性的前视声呐目标跟踪方法,包含以下步骤:

(1)读取前视声呐视频图像I;

(2)利用蛙眼时空滤波算子F对前视声呐视频图像进行运动滤波;

(3)在经运动滤波后的第一帧图像中确定目标位置L,并分别初始化粒子滤波特征模板M1与时空上下文特征模板M2;

(4)获取新一帧经运动滤波后的图像IF,在上一帧目标位置的基础上,利用粒子滤波预估计目标位置L1;

(5)在线更新粒子滤波特征模板M1;

(6)在步骤(4)得到的预目标位置L1的基础上,利用时空上下文方法精确定位目标位置L2;

(7)在线更新时空上下文特征模板M2;

(8)显示步骤1)中的视频图像帧与以目标位置L2为中心的跟踪窗口;

(9)判断是否读完前视声呐视频图像,若是,则结束;若不是,则转至步骤(4)。

步骤(2)中,针对水下前视声呐图像具有分辨率低、纹理弱、边缘模糊与噪声强等特点,采用具有蛙眼视觉特性的运动滤波器对图像帧进行预处理。利用蛙眼视网膜上的R3细胞对运动方向、凸边、反差等具有选择性,模仿其在目标运动检测过程中的刺激响应特性和机制,在模糊背景区域的同时能够有效地凸显具有运动特性的目标,特别是运动目标的边缘特征,从而为后面的目标跟踪环节打下良好的基础。

步骤(3)中,在第一帧经蛙眼时空运动滤波后的图像中,将待跟踪目标物体框定,获取目标的中心位置(x,y)及相应的尺寸,包括宽Width与高Height,为之后建立特征模板M所使用的位置空间大小提供依据。初始化粒子滤波的特征模板M1时,考虑到目标的尺度与姿态变化对特征的影响,采用多尺度的矩形灰度特征建立目标区域的特征模板,在之后的多尺度特征匹配中获得目标尺度的变化趋势,从而作用于时空上下文中的跟踪窗口大小的变化。初始化时空上下文的特征模板M2时,由于原有算法中采用的像素级别的灰度特征在目标物体明暗不均等情况下跟踪效果不是很理想,因此采用基于区域的特征块来表征目标,利用多尺度Hog金字塔特征矩阵与Hu不变矩两者进行特征融合来构建特征模板M2,具体融合方式为:将得到多尺度Hog金字塔特征矩阵与Hu不变矩的两个特征矩阵中各行元素依次首尾相连,变成一行形式的一维矩阵,再将多尺度Hog金字塔特征矩阵与Hu不变矩顺次拼接,得到一个融合特征矩阵。

步骤(4)结合粒子滤波全局搜索的优势,在新一帧经运动滤波后的图像IF中,以上一帧目标位置为中心,扩大原有的目标大小区域至r倍作为粒子滤波的目标搜索区域对新一帧的目标位置进行预估计,预估计过程为:利用粒子滤波跟踪方法在目标搜索区域内对目标进行跟踪,估计的目标位置称为最终所得目标位置的初步估计位置,以应对时空上下文跟踪方法不适用于目标位移过快的情况。此外由于只是初步定位,所用的粒子总数N只需适量,如N∈[100,500],减少了计算复杂度以保证跟踪的实时性。

步骤(5)针对目标尺度与姿态变化等因素对特征的影响,利用粒子滤波跟踪时需要对目标的特征模板M1不断在线更新,从而通过多尺度特征匹配判断出目标的尺度变化趋势在特征模板更新时,利用权值γ1作为在当前帧中所提取特征M1′t的影响因子来作用于当前帧特征模板M1t的更新,避免由于目标被遮挡等情况造成的坏特征样本对后面特征模型的更新产生较大不利影响,即M1t=(1-γ1)M1t-1+γ1M1′t,M1t为第t帧的粒子滤波特征模板;M1t-1为第t-1帧的粒子滤波特征模板;M1′t为以第t帧粒子滤波跟踪位置为中心在相应目标区域内提取的特征;γ1为第t帧粒子滤波中提取的特征在模板更新中的影响因子。为增强尺度变换的稳定性,采用之前连续nFrame帧尺度变化的平均数作为一个基准,由此计算初步尺度参数Scalet:ξ为计算初步尺度参数Scalet时之前连续nFrame帧尺度变化平均数的影响因子,t表示当前帧为第t帧。

步骤(6)中利用时空上下文跟踪算法完成目标定位可看成是求解目标位置估计似然函数的最大值问题,即求解目标位置最大似然置信度。本发明改进的时空上下文跟踪算法以步骤(4)得到的预目标位置L1为中心,框定步骤(3)中获取的第一帧目标尺寸宽×高Width×Height大小的区域作为基础区域Ωc,由于利用区域特征块来表征目标,因此不需要比较基础区域Ωc中每个像素点所对应的特征匹配度。通过降采样基础区域Ωc获得采样点z来代替时空上下文跟踪算法中的像素点,Ωd为经降采样后获得的点集,z∈Ωd,以每一个采样点z为中心,将步骤(3)中宽×高大小的区域作为提取特征范围,分为m×s个块blocks,每个块block中又包含k×k个单元cells,对每个单元cells分别提取并融合Hog特征与Hu不变矩特征,利用PCA(Principal Component Analysis主成分分析)降维后再与特征模板M2进行匹配最终得到采样点z处的特征匹配度Y(z)。

在更新时空上下文模型时,由于时空上下文跟踪算法采用固定学习率来更新,一旦出现目标被遮挡、目标畸变、目标快速运动等情况时,易导致跟踪漂移或当目标重新出现时无法再定位到目标,因此利用目标置信图c(x)中峰值尖锐度(PSR)的大小能反映目标受上述影响因素的程度的特点,采用每一帧峰值尖锐度PSR值来决定空间上下文模型在更新过程中的权重,则改进的时空上下文模型更新公式为

式中Pt代表第t帧峰值尖锐度PSR值,定义其中μ和η分别为置信图峰值位置周围9×9邻域内的均值和标准差,Pmax表示当前所有帧中峰值尖锐度PSR的最大值,如果第t帧峰值尖锐度Pt低于阈值Pth_psr,表明目标因遮挡过多、形态畸变过大等因素影响不适合再参照此帧模型更新,则置第t帧空间上下文模型权重为0,不再更新,ωt为第t帧改进时空上下文模型自适应更新系数,为第t+1帧时空上下文模型,ρ为更新时空上下文模型Hstc时每帧空间上下文hsc的影响因子,exp()为指数运算,ct(x)为第t帧目标置信图,x为一个矢量矩阵,表示上述基础区域Ωc中的像素点坐标。

在尺度更新过程中,时空上下文跟踪算法通过几个约等假设利用公式证明仅分析得出目标尺度变化与前后两帧目标置信图的峰值比值呈根号关系,为更加精确表达目标尺度变化与峰值比值开根之间的线性关系,本发明利用步骤(5)中得到的初步尺度参数Scalet来完善尺度更新,具体更新公式为:

式中,与分别为第t-1帧与第t帧的目标置信图峰值,s′t用来估计相邻两帧的尺度变化,表示距离第t帧前n帧平均尺度变化量,st+1表示第t+1帧目标变化尺度大小,κ为尺度影响因子用来调节尺度变化速度,ρ为尺度参数,由于目标尺度不断随时间发生变化,相应的权重函数wσ需要相应更新,ρt为第t帧的尺度参数,ρt+1为第t+1帧的尺度参数,st为第t帧估计的目标尺度,i为临时变量,范围为1~n,用来累加s′求平均。

步骤(7)用步骤(5)中的方法,针对视频图像帧中目标不断变化的情况,通过公式M2t=(1-γ2)M2t-1+γ2M2′t在线更新时空上下文的特征模板。

步骤(8)中在显示最终目标跟踪窗口时,以步骤(6)中利用改进的时空上下文算法跟踪得到的精确目标位置L2为跟踪窗口的中心,跟踪窗口的大小由公式target_szt=target_szt-1·st来确定,target_szt为跟踪窗口的大小,为(高,宽)的矩阵。

本发明利用一种蛙眼时空滤波算子,针对前视声呐图像的特点在模糊背景区域的同时能够有效地凸显运动目标的边缘特征,同时结合粒子滤波全局搜索的优点以及时空上下文局部区域精确跟踪的特性,首先运用粒子滤波在局部较大区域中对目标粗略定位,扩大目标搜索范围,应对目标位移过快的情况,其中采用多尺度特征匹配来确定目标尺度变化的趋势,从而作用于之后的时空上下文以便更好地解决目标尺度变化的问题,实现自适应调节跟踪窗口大小。再通过改进的时空上下文跟踪算法精确定位目标方位,其中采用基于区域的特征块来表征目标,将原有的像素灰度特征用降采样后像素点对应区域的Hog金字塔特征与Hu不变矩特征代替,应对目标区域明暗不均等情况。由于上述的改进措施,本发明跟踪方法在目标跟踪过程中面对明暗变化、复杂背景、目标遮挡、目标尺度与姿态变化、视角变化以及噪声强等干扰因素时具有精度高、鲁棒性与适应性强的特点。

附图说明

图1为本发明方法的流程图;

图2为粒子滤波粗略定位目标流程图;

图3为改进时空上下文精确定位目标流程图。

具体实施方式

有关本发明的详细内容和技术,兹配合图式说明如下。

采用本发明的基于蛙眼视觉特性的改进时空上下文方法对水下前视声呐图像帧中的运动目标进行跟踪的流程框图如图1所示,其具体步骤依次为:

(1)读取前视声呐视频图像I;

(2)利用蛙眼时空滤波算子F对前视声呐视频图像进行卷积得到运动滤波后图像IF;

所用到的蛙眼时空滤波算子F具体定义如下:

其中,

K(t)为时间指数冲击函数,其响应特性取决于运动刺激的大小,具体表达式为:

式(1)中,A1、A2、λ、τ、和θ分别表示不同的参数,x1,y1分别为空间滤波窗口中像素点的横纵坐标;G(x1,y1,θ)为关于x1,y1,θ的高斯分布函数,其中θ为各向异性的方向角度参数;A1、A2分别为神经元的兴奋性感受野(ERF)与抑制性感受野(IRF)的权重;λ为时间常量参数;τ为IRF相对于兴奋性感受野ERF的时间延迟;γ表示抑制性感受野IRF区域相对于兴奋性感受野ERF区域的中心点偏移极坐标距离;为各向异性空间结构参数,分别表示兴奋性感受野ERF区二维椭圆高斯函数在长轴和短轴方向的均方差,分别表示抑制性感受野IRF区二维椭圆高斯函数在长轴和短轴方向的均方差;调整这些参数可表示不同运动视觉特征的蛙眼时空运动滤波算子模型。实验中取A1/A2=3,λ取经验值5,τ取3,θ根据目标运动方向选取。

对图像帧It(x,y)进行滤波可表示为:

其中,是滤波输出图像,空间滤波邻域窗口大小为(2ωs+1)×(2ωs+1)个像素,权函数Wt为(1)式中蛙眼时空滤波算子F,It表示第t帧图像;x,y分别表示图像It中像素点的横纵坐标,也是滤波输出图像的中心点横纵坐标;i,j分别表示在空间滤波邻域窗口中的像素点与其中心点x,y的横纵坐标偏移量;ωs为一个常量,用来决定空间邻域窗口大小,这里取值为5;

(3)在经运动滤波后的第一帧图像中手动框定目标位置L,其中心点为x*,坐标为(x,y),目标窗口尺寸Width×Height。分别初始化粒子滤波与时空上下文的特征模板M1与M2:提取目标区域的多尺度的矩形灰度特征来建立初始的粒子滤波特征模板M1;根据目标窗口尺寸的大小来确定一个宽高都为24的整数倍的最接近Width×Height大小的区域W×H,在其中每16×16个像素组成一个单元cell,每2×2个单元cells组成一个块block,采用non-overlap的分割策略,将区域W×H分为m×s个块blocks,将每个单元cell中的梯度方向平均划分为9个区间(bin),分别提取Hog金字塔特征与Hu不变矩特征,并将两个特征融合再通过PCA进行降维得到最终的时空上下文特征模板M2。

(4)获取新一帧经运动滤波后的图像IF,在以上一帧目标位置x*为中心,2Width×2Height大小的区域内完成粒子的初始化,采样的粒子集合的随机分布概率遵循均匀分布,并且将每个粒子的权值置为0;然后提取以粒子为中心Width×Height大小区域范围内的多尺度矩形灰度特征,分别与粒子滤波的特征模板M1进行多尺度匹配,得到对应的相似度;对每个粒子对应的相似度进行归一化后作为粒子权重,完成粒子的重要性采样;进行粒子重要性重采样,保留粒子权重最大的20%的粒子用作估计目标预位置;将重要性重采样得到的粒子坐标求平均值作为粒子滤波粗略估计的目标位置L1,N为粒子滤波中粒子的总个数。

(5)在线更新粒子滤波特征模板M1时,利用权值γ1作为在当前帧中所提取特征M1′t的影响因子来作用于当前帧特征模板M1t的更新,即M1t=(1-γ1)M1t-1+γ1M1′t;利用步骤(4)中多尺度特征匹配时的相似度获得尺度变化趋势由此计算初步尺度参数

式中nFrame表示作为尺度基准的连续图像的帧数,ξ为尺度基准的影响因子,nFrame取5,ξ取0.075。

(6)以步骤(4)得到的粗略目标位置L1为中心,框定步骤(3)中获取的第一帧目标尺寸Width×Height大小的区域作为基础区域Ωc,通过降采样基础区域Ωc获得采样点z(z∈Ωd)来代替原算法Ωc中的像素点,Ωd为经降采样后获得的点集。判断当前处理图像帧是否为经蛙眼运动滤波后的第2帧,如果是则需要先通过(5)式和(8)式分别计算初始目标置信图c(x)与初始空间上下文模型

式中b是归一化系数一,x*表示粗略目标位置L1的中心坐标,x-x*表示像素点x到目标中心的欧式距离,为α是尺度参数一取2.25,β是形状参数,实验表明β=1时取得较好跟踪效果。

又由于

式中Y(z)代表采样点z处的特征匹配度,wσ(z-x*)是权重函数,定义为a是归一化参数二,σ是尺度参数,初始值由决定,代表卷积操作,采样点z处的特征匹配度Y(z)可由以采样点z为中心,利用与步骤(3)中建立时空上下文特征模板M2一样的方法提取对应的特征,并与特征模板M2计算欧式距离再进行归一化获得。c(z)表示采样点z处的目标置信图;Xc为上下文特征集合,具体定义为Xc={c(z)=(Y(z),z)|z∈Ωd(x*)}。

(6)式可以通过快速傅里叶变换转换到频率域

F[c(x)]=F[hsc(x)]*F[Y(x)wσ(x-x*)] (7)

式中代表快速傅里叶变换,*代表矩阵点乘运算。经过傅里叶逆变换并结合(5)式可以得到空间上下文模型hsc(x)

如果当前处理图像帧不是经蛙眼运动滤波后的第2帧,则直接开始利用下面的更新公式更新时空上下文模型

式中Pt-1代表第t-1帧(前一帧)PSR值,定义其中μ和η分别为置信图峰值位置周围9×9邻域内的均值和标准差,Pmax表示当前所有帧中PSR的最大值,ωt-1表示空间上下文模型在第t帧(当前帧)更新过程中的权重,ρ为原算法中空间上下文模型在更新时的影响因子,值取0.075。

那么第t帧(当前帧)预测的新的目标置信图ct(x)为

由此通过求解新的目标置信图ct(x)最大值处的对应位置xt*得出当前帧的精确位置,即

再利用(12)式通过改进的尺度更新机制计算出第t+1帧(下一帧)中的尺度st+1与尺度参数ρt+1,分别用来影响最终跟踪窗口的尺度和权重函数wσ(z-x*)的更新。

式中,与分别为第t-1帧与第t帧的目标置信图峰值,s′t用来估计相邻两帧的尺度变化,表示距离第t帧前n帧平均尺度变化量,n=5,st+1表示第t+1帧目标变化尺度大小,s1=1,κ为尺度影响因子用来调节尺度变化速度,κ=0.25。

然后利用(8)式对当前帧的空间上下文模型进行更新,至此完成了运用改进的时空上下文算法对水下前视声呐图像帧中运动目标的精确定位。

(7)用步骤(5)中的方法,针对视频图像帧中目标不断变化的情况,通过公式M2t=(1-γ2)M2t-1+γ2M2′t在线更新时空上下文的特征模板。

(8)在显示最终目标跟踪窗口时,以步骤(6)中利用改进的时空上下文算法跟踪得到的精确目标位置为跟踪窗口的中心,跟踪窗口的大小由公式target_szt=target_szt-1·st来确定。

(9)判断是否读完前视声呐视频图像,若是,则结束;若不是,则转至步骤(4)。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1