一种对固定摄像头的交通视频流量追踪分析方法与流程

文档序号:12272177阅读:459来源:国知局
一种对固定摄像头的交通视频流量追踪分析方法与流程

本发明涉及图像分析和视频处理技术领域,尤其是涉及一种对固定摄像头的交通视频流量追踪分析方法。



背景技术:

交通流量追踪分析在小区出入口,高速公路或是交通要道的流量信息提取记录等方面有着广泛的应用。

运动物体跟踪包含运动目标的检测和跟踪两个部分。运动目标的检测主要有帧差分法、背景差分法和光流法:帧间差分法、背景消除法、光流法。帧间差分法是指在相邻的两个或三个图像帧间对每一点像素进行差分运算,将所得到的结果阈值化从而获得图像中的运动区域;帧间差分法对于动态环境有很好的适应性,但却不能够很好地分割运动对象。背景消除法的基本思想就是对图像的背景建模,之后将当前帧与背景图像相减进而得到运动的目标区域,它的重点就在于背景的建立和更新;背景差分法能够较完整地提取目标点,却又对光照和外部条件造成的动态场景变化过于敏感。基于光流法的目标检测是根据运动目标随时间变化的光流特性,研究图像灰度值在时间上的变化与景象中物体结构及其运动的关系;它的优点是能够检测出独立运动的对象,不需要预先知道场景的任何信息,缺点是对光线依赖程度大,容易丢失目标,实现复杂,需要特定的硬件支持,否则很难达到一定的效果。

运动目标检测完成以后,接下来要做的就是根据前一帧目标的位置、速度、状态模型等通过跟踪算法定位目标在当前帧中的状态,获得目标的运动轨迹,从而来实现所谓的目标跟踪。目前比较成熟的跟踪算法有基于模型的跟踪、基于特征的跟踪方法、基于活动轮廓线的跟踪方法、基于团块的跟踪方法以及基于Bayes框架的跟踪。



技术实现要素:

本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种对固定摄像头的交通视频流量追踪分析方法。

本发明的目的可以通过以下技术方案来实现:

一种对固定摄像头的交通视频流量追踪分析方法,包括以下步骤:

1)选择输入视频;

2)获取图像帧;

3)前景提取与预处理,区域生长与粘连物体分割,获取检测目标;

4)分配检测给追踪;

5)更新追踪。

所述的步骤3)具体为:

首先采用两次HSV空间变换和OTSU算法去除阴影,采用Sobel算子分割道路边界,以及采用区域生长算法获取完整车身;

然后利用基于高斯混合模型的背景差除算法的前景提取器提取到遮罩后的二值化图像;

最后使用形态学操作来填补连通的区域和消去小的斑点噪声。

所述的HSV空间变换具体为:

利用HSV空间亮度分量,首先将图像转化为HSV空间,将V分量进行如下操作:

之后再将其返回RGB空间,即完成了亮度均衡。

所述的Sobel算子分割道路边界具体为:

该算子包含两组3x3的矩阵,分别为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值;再用形态学开操作和闭操作清除树木房屋边检的斑驳。

所述的分配检测给追踪包括对已有追踪的预测,以及关联物体的检测和追踪。

所述的对已有追踪的预测具体为:利用卡尔曼滤波器对已经得到追踪的物体在这一帧的位置进行预测,并更新这些被预测的追踪。

所述的关联物体的检测和追踪具体为:将每一帧中得到的目标检测需要和与之移动代价最小的已有的追踪关联,并更新追踪结果;继续使用卡尔曼滤波器来分配检测到各个追踪。

所述的更新追踪具体为:

首先对所有分配了新的检测的追踪和未分配的追踪进行相关统计数据的更新;

对于帧数可见率不足的追踪和长时间未分配检测的追踪进行删除,相关阈值数据为提前设置;

对于未分配给追踪的检测定位新的物体进入摄像头视野并为其新建新的追踪以分配。

与现有技术相比,本发明提出了两次HSV空间变换的阴影消除技术以及利用区域生长获取完整车身的算法。算法能有效减少普通HSV空间固定阈值分割的阴影消除技术的误差并优于固定变换核的形态学操作以获取车身的做法。

附图说明

图1为本发明的流程图。

图2为相近目标的遮罩示意图。

图3为sobel算子卷积示意图。

具体实施方式

下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。

本发明针对现有方法存在的上述不足,提出了两次HSV空间变换的阴影消除技术以及利用区域生长获取完整车身的算法。该算法能有效减少普通HSV空间固定阈值分割的阴影消除技术的误差并优于固定变换核的形态学操作以获取车身的做法。

由于交通摄像头往往俯视地面,并考虑到阴天行车和夜间行车等光线不足的情况,首先对图像帧进行亮度修正:利用HSV空间亮度分量,首先将图像转化为HSV空间,将V分量进行如下操作:

之后再将其返回RGB空间,即完成了亮度均衡。

由于图像在不同的色彩空间可以表现出不同的光谱特性,从而适用于不同的应用场合。在HSV色彩空间中,阴影在色度和饱和度通道中都与非阴影区域有明显的区别。根据阴影的这种特性,利用连续两次的HSV彩色空间变换,可以在图像中有效的区分出阴影与非阴影区域。另外,由于不同图像的大小、灰度分布、亮度和纹理等各不相同,本文采用OTSU算法自动阈值分割,减小了固定阈值给客户造成的修正难度。在OTSU算法中,对图像Image,记t为前景与背景的分割阈值,前景点数占图像比例为w0,平均灰度为u0;背景点数占图像比例为w1,平均灰度为u1。图像的总平均灰度为:u=w0*u0+w1*u1。从最小灰度值到最大灰度值遍历t,当t使得值g=w0*(u0-u)2+w1*(u1-u)2最大时t即为分割的最佳阈值。该式实际上就是类间方差值,因方差是灰度分布均匀性的一种度量,方差值越大,说明构成图像的两部分差别越大,当部分目标错分为背景或部分背景错分为目标都会导致两部分差别变小,因此使类间方差最大的分割意味着错分概率最小。

对于无过多遮挡物遮掩的道路,根据道路纵向和横向特征明显,本文采用sobel算子提取图像帧边界。如图3所示,该算子包含两组3x3的矩阵,分别为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值。再用形态学开操作和闭操作清除树木房屋边检的斑驳。对于以拍摄前方道路为主的摄像头,可规范化道路区域,减少路边行人和树叶的运动对前景提取的影响。从第三步中分类出的结果中选取代表不规则运动的一类或者几类运动向量,并提取相应特征。

在利用高斯混合模型建模提取图像前景后,选取每块前景的质心作为种子点,采用区域生长法获取完整车身。区域生长是一个迭代的过程,每个种子像素点都迭代生长。初始时选取一个种子点,进入队列,之后重复从队列中取出像素点,检查它周围最多8个像素点,与中心点的差异大于阈值T的像素点标记为与中心点不同的一类,入队。重复这个过程,直至处理过图像中的每一个像素点。

本发明属于多目标追踪在交通流量分析方面的实用软件,采用的基本算法为卡尔曼滤波算法。软件算法主要目的有两个。

检测到视频每一帧中的移动物体。

将检测得到的目标和相对应的相同物体的追踪联系起来

移动目标的检测使用的是基于高斯混合模型的背景差除法,然后再对前景遮罩图像进行形态学处理以过滤掉噪声,最后对得到的连接区块进行分析,每一个区块有很大可能就是一个检测到的目标。

统一检测到的目标和已有的追踪路径基于相同的移动特性。目标的移动特性由卡尔曼滤波算法得到。使用卡尔曼滤波器来预测每个已得到的物体在这一帧中的预测的位置,然后估计新得到的检测目标是否属于该物体,如果是将其加入这个物体的轨迹中。

本软件使用的算法对视频进行逐帧处理和分析,最每一帧的处理过程分为以下几个具体步骤。

前景提取及目标检测

阴影作为非感兴趣区域,会跟随着运动物体移动并被认为是前景,并且阴影的存在会加大车辆之间、行人之间不必要的连通性而造成误差,因而在实际应用中阴影的去除不可忽略。在与处理过程中,我们采用两次HSV空间变换和OTSU算法去除阴影,采用Sobel算子分割道路边界,以及采用区域生长算法获取完整车身。

然后利用基于高斯混合模型的背景差除算法的前景提取器提取到遮罩后的二值化图像。

单分布高斯背景模型认为,对一个背景图像,特定像素亮度的分布满足高斯分布,即对背景图像B,(x,y)点的亮度满足:

IB(x,y)~N(u,d)

这样我们的背景模型的每个象素属性包括两个参数:平均值u和方差d。

对于一幅给定的图像G,如果

则认为(x,y)是背景点,反之是前景点。

同时,随着时间的变化,背景图像也会发生缓慢的变化,这时我们要不断更新每个象素点的参数。

u(t+1,x,y)=a×u(t,x,y)+(1-a)×I(x,y)

这里,a称为更新参数,表示背景变化的速度,一般情况下,我们不更新d。

第二步使用形态学相关操作来填补连同的区域(将用作一个检测)和消去小的斑点噪声。

在实际检验软件效果时,我们发现如果两个检测物体如果距离较近时,两个物体的遮罩将构成一个大的连通域以至于算法会将其作为一个检测到的对象处理。

于是我们在简单的填补连通域和消去噪声加入了我们的比较创新形态学操作处理:对于两个相近的目标形成的较大连通遮罩,即如图情形,我们将把其分开作为两个目标处理,如图2所示。

前景提取及目标检测

阴影作为非感兴趣区域,会跟随着运动物体移动并被认为是前景,并且阴影的存在会加大车辆之间、行人之间不必要的连通性而造成误差,因而在实际应用中阴影的去除不可忽略。在与处理过程中,我们采用两次HSV空间变换和OTSU算法去除阴影,采用Sobel算子分割道路边界,以及采用区域生长算法获取完整车身。

然后利用基于高斯混合模型的背景差除算法的前景提取器提取到遮罩后的二值化图像。

单分布高斯背景模型认为,对一个背景图像,特定像素亮度的分布满足高斯分布,即对背景图像B,(x,y)点的亮度满足:

IB(x,y)~N(u,d)

这样我们的背景模型的每个象素属性包括两个参数:平均值u和方差d。

对于一幅给定的图像G,如果

则认为(x,y)是背景点,反之是前景点。

同时,随着时间的变化,背景图像也会发生缓慢的变化,这时我们要不断更新每个象素点的参数。

u(t+1,x,y)=a×u(t,x,y)+(1-a)×I(x,y)

这里,a称为更新参数,表示背景变化的速度,一般情况下,我们不更新d。

第二步使用形态学相关操作来填补连同的区域(将用作一个检测)和消去小的斑点噪声。

在实际检验软件效果时,我们发现如果两个检测物体如果距离较近时,两个物体的遮罩将构成一个大的连通域以至于算法会将其作为一个检测到的对象处理。

于是我们在简单的填补连通域和消去噪声加入了我们的比较创新形态学操作处理:对于两个相近的目标形成的较大连通遮罩,即如图情形,我们将把其分开作为两个目标处理,如图2所示。

实施效果

依据上述步骤,我们找到了两段交通十字路口的监控视频,使用本软件中所示算法进行对视频内目标的追踪。追踪率在85%以上,误检率则较高,约为30%。

在本软件中,由于暂时没有找到相关训练集和自身能力的限制,没有采用机器学习的方法进行对模型的训练,所有参数依靠的是对视频的特征。之后将会采取机器学习的方式训练模型达到更好的追踪效果。

以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1