低帧率视频目标检测和跟踪方法及其在无人机中的应用与流程

文档序号:16090819发布日期:2018-11-27 22:59阅读:552来源:国知局

本发明涉及的是一种计算机视觉和图像处理技术领域的跟踪方法,具体地说,涉及的是一种基于检测目标同时对数据学习的无人机视频目标跟踪方法。



背景技术:

视频目标跟踪中,可以根据对目标的建模来将目标跟踪分成两类,生成式跟踪方法和判别式跟踪方法。生成式的跟踪方法,对目标建立模型,然后在周围寻找潜在的目标,通过某种度量将潜在的目标和建立的模型进行比较,误差最小的就认为是目标。常见的方法有粒子滤波方法,稀疏表示方法(sparse representation),子空间方法(subspace learning),多任务学习方法(multi-task learning)等。而对目标进行建模,则可以采用各种特征,颜色直方图,子空间,超像素,图像灰度等。比如用目标的颜色直方图作为特征,通过巴氏系数来对周围的采样候选目标建立模型,然后和目标模板进行比较(IJCV,29(1):5~28,1998)。子空间的方法对目标首先进行SVD分解,将目标的主成分作为特征来跟踪(IJCV,vol.77,125~141,2008)。超像素特征也作为目标特征用到视频目标跟踪里面(ICCV,2011)。稀疏表示方法被引入计算机视觉里面之后,也被用来视频目标跟踪(ICCV,2009)。这里,直接用目标的灰度信息来作为目标的特征,通过比较潜在目标和模板的l1范数之间的距离,来寻找目标。在文献(IEEE conference on computer vision and pattern recognition,1~8,2012)里面,多任务学习方法引入目标跟踪。

判别式的方法则是用图像里面的数据训练出一个分类器,用分类器对图像里面的目标进行分类,从而找出前景目标。常见的判别式视频目标跟踪方法有多示例学习方法(multi-instance learning),基于支持向量机(Support Vector Machine,SVM)分类器的视频目标跟踪,基于结构支持向量机(Structure Support Vector Machine,SSVM)分类器的视频目标跟踪,基于相关滤波的视频目标跟踪等。多示例学习算法计算目标的哈尔(Harr)特征,然后用多示例算法来对潜在目标分类(in CVPR,2009.)。文献“Support vector tracking”(TPAMI,26,1064~1072,2004)记载了用SVM来作为分类器。文献“Structured output tracking with kernels”(ICCV,263~270,2011)记载了用SSVM来分类。

目前已有的视频目标跟踪方法,对通用场景下,比如:视频里面人,车的面积比较大,而且是平视,可以取得较好的结果,因为这些图片在计算机视觉里面研究了很长时间,因此现有的特征能够很好的描述这些物体。而众所周知,视频目标跟踪里面,特征对跟踪效果有很大的影响。例如上述的跟踪方法里面,用到图像直方图,像素灰度信息,Harr特征,超像素特征等。而对于无人机跟踪里面的目标,因为目标一般距离较远,因此目标面积很小,只能看到目标的轮廓,需要特征能够较好的得到目标的边缘信息。而且目标场景变化很大,在低帧率情况下,很容易跟丢,这就需要跟踪方法有检测的功能。



技术实现要素:

本发明的一个目的是提出一种低帧率视频目标检测和跟踪方法,其系基于检测的跟踪,并结合SVM分类器,采用判别式跟踪方法来实现低帧率视频目标检测和跟踪。

本发明的一个目的是提出一种低帧率视频目标检测和跟踪方法在无人机上应用。

本发明提供的一种低帧率视频目标检测和跟踪方法,步骤包括对目标建立模型,然后在判别式跟踪的框架下,结合检测方,对视频目标跟踪。其具体的步骤如下:

先对目标周围进行边缘方框算法(edgeboxes)采样,采样得到的即为潜在目标,超出采样框的将舍弃;

然后基于局部数据,提取图像的局部特征,同时对局部数据进行学习,改善对目标变化的稳定性,以及改善对图像噪声和几何形变具鲁棒性;

接着用支持向量机作为分类器,采取判别式跟踪的方法,使目标特征具有良好的分类能力,同时克服了以往基于判别式方法里面特征选用不好带来的跟踪丢失的问题;

之后采用支持向量机的跟踪位置,如果支持向量机得到的分类结果的数值较低,则用边缘方框算法对整幅图片采样,在整幅图片里面寻找目标;

最后根据预测位置,更新支持向量机模型。

本发明方法选用的局部特征具有良好的分类能力和对光照条件、姿态等的变化不太敏感能力,并且轻微的物理噪声和几何形变具有较强的鲁棒性。通过边缘方框算法的全图检测,以及和支持向量机结合,在无人机低帧率视频目标跟踪试验中取得了较高的准确率(准确率可以达到0.6)和成功率(如:成功率可以达到0.39)。

一种本发明方法的具体实施方式,包括:

第一步,得到潜在的目标。

第二步,根据第一步中得到的潜在目标,计算每个潜在目标的特征。

第三步,利用支持向量机对目标进行分类,得到目标位置。

第四步,对支持向量机输出的分数值判断,

若支持向量机输出的分数值在0.1至0.5之间,则认为是目标位置,但是不执行步骤六的更新;

若支持向量机输出的分数值>0.5,则认为是目标位置,直接执行第六步。

若支持向量机输出的分数值<0.1,则认为潜在目标跟踪丢失。

第五步,利用全图的潜在目标,用支持向量机模型进行分类,确定最终目标位置。

第六步,在目标最终位置采样,得到用于训练的正负样本,对支持向量机的模型进行在线更新。

以上实施方式中,获得潜在的目标方法为:在当前视频目标的前一帧所呈现的位置附近,利用边缘方框算法方法来采样。

本发明提出了一种具有良好的描述目标边缘信息能力和对噪声和几何形变具有一定程度的鲁棒性的局部特征,通过边缘方框算法来得到潜在目标,结合支持向量机设计了判别式跟踪方法。本发明提出的跟踪方法,对各种场景下(比如遮挡,光线变化,尺度变化等),能够取得较好的跟踪结果。本发明可应用于人脸跟踪、无人机跟踪、其它移动目标跟踪系统等各类系统中。

附图说明

图1为本发明实施例的流程图。

图2为测地线距离示意图。

图3为边缘方框算法在全图里面生成的潜在目标示意图。

图4为边缘方框算法在局部范围内生成的潜在目标示意图。

图5表示不同方法在UAV123-10FPS数据库上背景混乱场景的成功率,图中可以看到本发明方法在数据库UAV123-10FPS上取得了较好的成功率。

图6表示不同方法在UAV123-10FPS数据库上摄像头移动场景的成功率,图中可以看到本发明方法在数据库UAV123-10FPS上取得了较好的成功率。

图7表示不同方法在UAV123-10FPS数据库上快速移场景的成功率,图中可以看到本发明方法在数据库UAV123-10FPS上取得了较好的成功率。

图8表示不同方法在UAV123-10FPS数据库上背景混乱场景的准确率,图中可以看到本发明方法在数据库UAV123-10FPS上取得了较好的准确率。

图9表示不同方法在UAV123-10FPS数据库上摄像头移动场景的准确率,图中可以看到本发明方法在数据库UAV123-10FPS上取得了较好的准确率。

图10表示不同方法在UAV123-10FPS数据库上快速移场景的准确率,图中可以看到本发明方法在数据库UAV123-10FPS上取得了较好的准确率。

图11表示本发明的方法在UAV123-10FPS数据库上船1(boat1)视频的跟踪结果。

图12表示本发明的方法在UAV123-10FPS数据库上人群1(group1)视频的跟踪结果。

具体实施方式

下面结合附图对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。

如图1所示,本实施例的目的首先是使本发明的特征具有很好的描述目标的能力,其次是使特征能够克服对噪声干扰的问题。所采取的途径是使用流形上的测地线距离来代替欧式距离,并且考虑图像的水平和垂直方向的梯度以及梯度的梯度。然后用边缘方框算法来产生潜在的目标。边缘方框算法通常用在目标检测里面,本发明将边缘方框算法用在跟踪里面来生成潜在目标。接着通过SVM来进行分类,从而确定目标位置。然后考虑如果跟踪丢失,则需要用边缘方框算法在全图里面生成潜在目标,通过全图查找,来对目标进行最终定位。

本实施例的技术方案涉及测地线距离、局部特征,结构支持向量机方法,以及边缘方框算法等内容,并详述如下。

本发明涉及的测地线距离说明如下:

图2给出了测地线距离和欧式距离的区别。假定在一个曲面下,数据可以表示为{x1,x2,z(x1,x2)}.,其中x1和x2为坐标,z(x1,x2)表示曲面随x1和x2变化,即曲面可以表示为S(x1,x2)={x1,x2,z(x1,x2)}。则图中的曲线长度可以表示为:

本发明涉及的局部特征说明如下:

我们把上述计算曲线长度的公式展开,可以得到:

其中Δx=[dx1,dx2]T,由于我们这里采用的是局部算子,所以+ΔxTΔx是一个很小的变量,可以忽略,所以ds2≈ΔxTCΔx。因此,本实施例的方法采用局部特征可以表示为:K(C,Δx)=exp(-ds2)=exp{-ΔxTCΔx},其中,C的计算如下:

C=J*JT,其中,

zGC是图像的高斯曲率。

则C的计算又可表示如下:

式中,v1和v2是矩阵C的特征向量,s1和s2是矩阵C的特征值,特征值s3相对很小,故设定为0.0001,α=0.1。

本发明涉及的结构支持向量机方法说明如下:

支持向量机是一种最大间隔(max-margin)的方法,最擅长处理二分类问题,后来也被用于处理多分类问题。支持向量机的优点在于有很好的理论基础,即它的泛化能力很强。

本发明涉及的边缘方框算法说明如下:

边缘方框算法首先用结构边缘检测器(structured edge detector,参见:Piotr Doll ár and C.Lawrence Zitnick.Structured forests for fast edge detection.In ICCV,1841~1848,2013)对图片的每个像素计算。然后对滑动窗口对图像产生不同大小的方形框和分数值。分数值代表着这个方形框里面可能是物体的数值。数值越大,表明方框里面越有可能是物体。然后用非最大抑制(Non-maximal Suppression,NMS)方法删除部分方框,最后就得到了300个方框以及对应的分数值。

在以上各项技术的基础上,本发明技术方案具体实施如下:

1)用边缘方框算法生成潜在目标

对目标周围进行边缘方框算法采样,边缘方框算法产生的方框即为潜在目标,超出采样框的将舍弃。

2)计算局部特征。

对图像的每个潜在目标进行局部特征计算。

3)利用支持向量机分类得到目标位置。

使用支持向量机对每个潜在目标的位置输出分数,预测当前帧中潜在目标的位置。

4)对支持向量机输出的分数值判断。

若支持向量机输出的分数值在0.1至0.5之间,则认为是目标位置,但是不执行步骤(6)的更新;

若支持向量机输出的分数值>0.5,则认为是目标位置,执行步骤6);

若支持向量机输出的分数值<0.1,则认为潜在目标跟踪丢失。

5)全图搜索。

用边缘方框算法(edgeboxes)在整幅图片里面生成潜在目标,然后使用支持向量机对每个潜在目标的位置输出分数,确定位置。

6)在线更新。

根据预测,用edgeboxes重新采样,更新SVM模型。

实验数据采用UAV123-10FPS数据库源自:https://ivul.kaust.edu.sa/Pages/Dataset-UAV123.aspx。这里面有123个视频,12种场景,视频总帧数超过11万,帧率是10帧每秒。跟踪的场景相当广泛,有草地上,大楼附近,马路上等。跟踪的目标包括人,车,船等。12个场景是:

长宽比变化(Aspect ratio change),物体的长宽比变化超过了[0.5,2]这个范围区域。

背景混乱(Background Clutter),背景和目标很相似。

摄像头移动(Camera Motion),摄像头出现突然的抖动。

快速移动(Fast Motion),在前后两帧之间,物体的移动速度特别快。

全遮挡(Full Occlusion),目标被完全遮挡。

光线变化(Illumination Variation),物体表面的光线明暗度发生剧烈变化。

低分辨率(Low Resolution),物体的大小低于400个像素点。

离开场景(Out-of-View),物体部分不在摄像头范围内。

部分遮挡(Partial Occlusion),物体部分发生遮挡。

相似物体(Similar Object),在目标附近,有其它相似的物体。

尺度变化(Scale Variation)物体的尺度变化超过[0.5,2]这个范围区域。

视线角度变化(Viewpoint Change),观察物体的角度发生明显变化。

同时,与本实施例的方法相比较的算法包括:核相关滤波跟踪方法(图中显示为“比较算法1”,为较稀疏的点画线),检测学习跟踪算法(图中显示为“比较算法2”,为较密集的点画线)和基于支持向量机跟踪算法(图中显示为“比较算法3”,为长短点画线)。

选用计算机视觉里面常用的2个评判的标准,精确率(precision score)和成功率(success score)。精确率表示的是,跟踪得到的位置中心和真实值位置中心之间的差距。成功率表示的是,跟踪得到的位置方框和真实值位置方框的重合率。

同时,我们比较的算法有:相关滤波跟踪方法(图中显示为“比较算法1”,为较稀疏的点画线),检测学习跟踪算法(图中显示为“比较算法2”,为较密集的点画线)和基于支持向量机跟踪算法(图中显示为“比较算法3”,为长短点画线)。

我们选用计算机视觉里面常用的2个评判的标准,准确率(precision score)和成功率(success score)。准确率表示的是,跟踪得到的位置中心和真实值位置中心之间的差距。成功率表示的是,跟踪得到的位置方框和真实值位置方框的重合率。

图4表示不同方法在UAV123-10FPS数据库上的准确率。图中“LocalSVM”代表本发明的跟踪方法。可以看到本发明在数据库UAV123-10FPS上取得了较好的准确率。

图5表示不同方法在UAV123-10FPS数据库上背景混乱场景的成功率。可以看到本发明算法在数据库UAV123-10FPS上取得了较好的成功率。

图6表示不同方法在UAV123-10FPS数据库上摄像头移动场景的成功率。可以看到本发明算法在数据库UAV123-10FPS上取得了较好的成功率。

图7表示不同方法在UAV123-10FPS数据库上快速移场景的成功率。可以看到本发明算法在数据库UAV123-10FPS上取得了较好的成功率。

图8表示不同方法在UAV123-10FPS数据库上背景混乱场景的准确率。可以看到本发明算法在数据库UAV123-10FPS上取得了较好的准确率。

图9表示不同方法在UAV123-10FPS数据库上摄像头移动场景的准确率。可以看到本发明算法在数据库UAV123-10FPS上取得了较好的准确率。

图10表示不同方法在UAV123-10FPS数据库上快速移场景的准确率。可以看到本发明算法在数据库UAV123-10FPS上取得了较好的准确率。

图11表示本发明的方法在UAV123-10FPS数据库上boat1视频的跟踪结果。

图12表示本发明的方法在UAV123-10FPS数据库上group1视频的跟踪结果。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1