一种基于视频的车辆匹配方法与流程

文档序号:11971837阅读:174来源:国知局
一种基于视频的车辆匹配方法与流程
本发明涉及到交通视频检测技术领域,是一种基于视频的车辆匹配方法,主要用于智能交通系统提取道路交通信息。

背景技术:
基于视频的车辆匹配是指在一系列的图像帧中,对处在不同位置的同一辆车进行识别。目前很多系统(包括智能交通系统)都需要提取道路的车流量。很多算法都已经成功地将运动车辆检测出来,但检测的结果只能表示单一的静态图像中的车辆数目。如果需要统计车流量,则需要对每辆车进行匹配。车辆匹配方法的完善有助于交通智能化。同时通过车辆匹配可以记录车辆的行驶轨迹。当车辆发生违法变道等不安全行为时,该方法可以记录并报告给交通管理部门,提高道路交通安全性。传统的车辆匹配方法主要是基于mean-shift方法,这种方法没有考虑到实际工程应用背景,在搜索时并没有优化搜索范围,使得算法的计算量较大,实时性较差;其次,mean-shift的搜索窗口大小固定,不能自适应调整,缺乏实用性。由于这种传统的匹配方法的缺陷和不足,一直难以有成熟的车流量检测的产品推出,同时随着智能交通系统发展的完善,视频采集设备的普及以及基于视频的交通信息采集硬件成本逐渐降低,基于视频的车辆匹配技术有着广泛的应用前景。

技术实现要素:
针对现有车辆匹配技术的缺陷或不足,本发明提供了一种基于视频的车辆匹配方法。该方法可以对视频范围内的行驶车辆进行快速且准确的匹配。为了实现上述任务,本发明采取如下的技术解决方案:一种基于视频的车辆匹配方法,其特征在于如下步骤:步骤一:获取车辆监测视频,利用背景帧差法分割出每一帧图像中的移动车辆。从视频采集设备中获取车辆监测视频,利用背景帧差法分割出每一帧图像中的移动车辆。步骤二:记录每一帧图像中的车辆的位置,建立车辆位置数据库。记录每一帧图像中的车辆位置,求出车辆的最小矩形外轮廓,寻找最小矩形外轮廓的几何中心位置,将该点作为车辆的特征点并存入数据库。步骤三:以需要匹配的车辆位置为中心,在相邻图像帧中放置搜索窗口。选择需要追踪的车辆,以该车辆的最小矩形外轮廓的几何中心为中心,在需要追踪的相邻帧上放置一个矩形搜索窗口,该搜索窗口限定了车辆搜索的范围。该矩形窗口的大小为2*T*V*α,其中T表示相邻帧之间的实际时间间距,V表示该道路的最高限制时速,α表示现场中实际距离与成像平面的映射关系,即实际距离与在视频中距离的比值。步骤四:在搜索窗口中搜索目标车辆,并根据搜索结果自适应调整窗口大小直至搜索到车辆,记录车辆位置。在搜索窗口限定的范围内,从车辆特征点数据库中搜索车辆。如果没有搜索到车辆,则自动增加窗口大小,增加的步长为0.2*T*V*α,直至搜索到车辆;当搜索窗口大小超出监测范围时,搜索停止;或者当搜素窗口大于T*405*α时,搜索停止。记录所有搜索到的车辆特征点,存入一个待筛选集合中。步骤五:对搜索到的目标进行位移变化量与速度变化量的计算,选择出最优目标,完成匹配。从待筛选集合中计算车辆的位移变化量ΔS与速度变化量ΔV,根据两者的平方和D=ΔS2+ΔV2衡量两者的运动状态变化量。选取D作为最优目标进行匹配。本发明基于视频车辆匹配方法,与现有技术相比,可对视频范围内所有车辆进行匹配。该方法计算复杂度小,匹配时间短,准确性较高,具有广阔的应用前景。附图说明图1为本发明方法的流程图。图2为窗口自适应调整的流程图。图3为视频采集设备的安装示意图。以下结合附图和实施例对本发明做进一步的详细说明。具体实施方式本发明的基于视频车辆匹配方法,采用的原理是:将采集到的视频处理为一定格式大小的灰度图像序列。车辆随着时间变化分布在图像上的不同位置。相邻图像之间的时间间隔比较小,车辆在该时间间隔内移动的位移同样很小。所以可以通过计算车辆的位移来对车辆进行匹配。由于行驶的时间很短,车辆的速度的方向和大小变化也很小。所以速度也可以作为匹配车辆的一个特征。在进行匹配的过程中发现,不需要搜索图像中的所有车辆进行匹配,可以直接排除那些距离较远的车辆。出于优化算法的角度考虑,本发明提出了一个搜索窗口作为搜索范围。在实际匹配过程中,车辆的大小及速度都各不相同。如果窗口设定过大,则会搜索到很多干扰目标,增加后续匹配过程中的计算量。如果窗口设定过小,就很难保证能够搜索到车辆,不能完成搜索任务。如何设定窗口的尺寸成为一个待解决的难题。本发明提出了一种自适应调整窗口尺寸的方法,在保证了能够搜索到车辆的同时,又能排除大部分的干扰目标。具体采用以下步骤实现:第一步:分割出移动车辆通过图3所示,通过假设在交通道路上的视频采集设备获取实时交通视频,经过对该视频进行背景帧差处理后,分割出所有行驶中的车辆,并将分割出来的车辆二值化,记录每一辆车在图像中覆盖的位置坐标。第二步:确定车辆位置这一步的主要目的是是确定车辆的几何中心位置。首先要确定车辆的最小矩形外轮廓。第一步中已经得到车辆分割后的二值图。所以只需要确定二值图中的连通域最小矩形外轮廓。首先将车辆所覆盖的像素点坐标整理为一个集合{(x1,y1),(x2,y2),(x3,y3)......(xi,yi)},其中xi,yi分别代表第i个像素点所在的坐标位置。最小矩形外轮廓可以通过坐标集合中的x,y的最大值与最小值。接下来对集合进行排序,分别找到最小x坐标xmin,最大x坐标xmax,最小y坐标ymin,最大y坐标ymax。则可以确定最小矩形外轮廓的四个角点(xmin,ymin),(xmin,ymax),(xmax,ymin),(xmax,ymax)。在根据四个角点确定最小外轮廓的几何中心(xmid,ymid),其中xmid=(xmin+xmax)/2,ymid=(ymin+ymax)/2。步骤三:放置搜索窗口在需要匹配的目标的上放置搜索窗口,以搜索该车辆周围最小距离目标。以最小矩形外轮廓的几何中心为中心,在相邻帧上放置一个矩形搜索窗口。矩形窗口的大小为2*T*V*α,其中T表示相邻帧之间的实际时间间距,V表示该道路的最高限制时速,α表示现场中实际距离与成像平面的映射关系,即实际距离与在视频中距离的比值。在实际现场,我们选取的图像采集设备为每秒30帧,所以T=1/108000h,而道路规定的最高限速为60km/h,α根据图像采集设备的标定结果而不同。本发明选取α=12.3p/m,其中p/m表示实际距离中的1m在成像平面上占据的像素个数。对结果进行取整后,矩形窗口的长和宽分别14个像素点。步骤四:窗口自适应调整大小直至搜索到车辆。设检测到的第i辆车辆的几何中心为(xi,yi),用于存储搜索窗口中的车辆中的几何中心的向量表示为Vector.(xm,ym),Vector.xm表示存储的第m辆车的横坐标,而Vector.ym表示第m辆车的纵坐标。以被追踪车辆的几何中心(x0,y0)为中心,在长宽为a,b的矩形窗口内进行搜索。若搜索到该窗口内有移动车辆,则将该车辆的几何中心存储在向量Vector.(xm,ym)中。然后对存储在Vector.(xm,ym)中的车辆进行基于位置和速度的追踪运算。若搜索完成后,搜素窗口内的车辆数目为0,则搜索窗口的长宽分别以δ,ε为步长进行增长,即a=a+δ,b=b+ε,直到搜索到车辆为止。步骤五,对搜索到的目标进行位移变化量与速度变化量的计算,选择出最优目标,完成匹配。计算车辆的位移变化量ΔS与速度变化量ΔV,其中ΔS由计算两辆车辆几何中心的Euclidean距离得到,而速度变化量ΔV需要计算同一辆车的位移变化量之差。然后根据D=ΔS2+ΔV2计算出车辆的位移变化量与速度变化量的平方和。从所有的搜索对象中寻找具有最小平方和的目标,即可完成追踪过程。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1