基于双视角学习的山区高速公路车辆事件检测方法_2

文档序号:9751961阅读:来源:国知局
辆拥堵分车道外极面图;(b2)是外极面 图的线段特征及事件检测结果;(cl)是原始车辆拥堵车辆事件图像;(c2)是基于双视角学 习的车辆拥堵检测结果;
[0034] 图7为基于双视角的交通事故检测结果;(al)是交通事故原始视频帧;(a2)是交通 事故车辆运动轨迹跟踪及事件检测结果;(bl)是交通事故分车道外极面图;(b2)是外极面 图的线段特征及事件检测结果;(cl)是原始交通事故车辆事件图像;(c2)是基于双视角学 习的交通事故检测结果;
[0035] 图8为基于双视角的车辆逆行检测结果;(al)是车辆逆行原始视频帧;(a2)是车辆 逆行车辆运动轨迹跟踪及事件检测结果;(bl)是车辆逆行分车道外极面图;(b2)是外极面 图的线段特征及事件检测结果;(cl)是原始车辆逆行车辆事件图像;(c2)是基于双视角学 习的车辆逆行检测结果;
[0036] 图9为基于双视角的违规停车检测结果;(al)是违规停车原始视频帧;(a2)是违规 停车车辆运动轨迹跟踪及事件检测结果;(bl)是违规停车分车道外极面图;(b2)是外极面 图的线段特征及事件检测结果;(cl)是原始违规停车车辆事件图像;(c2)是基于双视角学 习的违规停车检测结果。
【具体实施方式】
[0037] 下面结合附图和实施例对本发明做进一步说明。
[0038] 本发明在现有广泛应用的反映车辆独立行为的车辆行驶轨迹特征基础上,基于道 路交通结构化的特点针对性地提出反映车流整体特征的分车道时空外极面图(Epipolar Plane Image,简称EPI ),从而形成交通事件两个相互独立的视角:车辆各自独立行为和交 通断面车流整体特征,在双视角融合框架下完成山区高速公路车辆事件鲁棒检测。针对所 输入的道路监控交通视频,对于视角一而言,需要完成运动车辆的自动检测和跟踪,生成车 辆运动真实轨迹数据并提取所对应的车辆运动个体行为特征,最终通过运动目标时空轨迹 模式学习获得交通事件的具体检测;对于视角二而言,需要自动检测高速公路交通场景的 车道线,并以此生成分车道的时空外极面图并实现线段的检测,最终实现空间车辆速度、加 速度及车辆速度斜率方向等反映路段车辆运动态势分析的车流整体特征的提取。利用这两 类特征分别检测交通事故、交通拥堵、车辆逆行及违法停车等事件,并针对每类特征所建立 的4类交通事件检测初步结论,通过关联处理进行决策层融合判决,最终获得联合推断结 果。实验结果表明,本发明所提出检测方法复杂性低,实时性好,针对多种交通事件而言都 有比较高的性能表现。
[0039] 本发明实施例在安装VC2008和0penCV2.4.5的PC机上实现。
[0040] 本实施例数据资料的来源主要分为两部分。一部分来自国内多个高速监控调度指 挥中心。这一部分数据包括了这些高速管理部门对于全路段所发生的交通事故及交通事件 的视频监控记录,包括了 165起交通事件。另一部分数据是从网络开放资源所获的,比如网 络著名视频资源网站youku等。该部分数据最终由人工根据视频数据的长度以及视频拍摄 条件等因素评判是否合适应用。该部分数据有478段视频,大部分都只是时长两分钟左右。 本实验数据资料最终总计643条交通事件视频文件,共计1470分钟的交通视频进行测试。
[0041] 本发明基于双视角学习的山区高速公路车辆事件检测方法的流程如图1所示,包 括以下步骤1~步骤3。
[0042]步骤1,双视角特征提取之一一一运动目标时空轨迹模式学习。
[0043]步骤1.1,交通视频初始化设置。
[0044] 主要包括以下内容:
[0045] 1)车道线设定,主要指划定路段截面的车道线位置,以便规划车辆正确的行驶位 置及方向等,为确定交通事故的发生及其位置提供参考基准;
[0046] 2)工作区域的设定。设定工作区域是为了提高计算速度,去除不必要区域的计算, 同时屏蔽路边花、草、树木随风摇动对检测精度的影响。
[0047] 如图2所示,(a)为待检测路段的原始图像,(b)为对原始图像进行初始化设置后的 图像。从图2的(b)可看出,设定的车道线、检测线等。
[0048] 步骤1.2,基于背景建模的车辆检测与跟踪。
[0049] 基于背景建模的车辆检测及跟踪已经非常成熟,被大量应用于交通事件视频自动 检测方法中。该方法的目的是从连续的交通视频图像中提取运动车辆目标并进行连续的识 别跟踪,以此获取每辆车的行驶轨迹等信息,为后续事件检测提供支持。本发明实施例只是 在视角一处理过程中基于现有背景建模及区域目标中心的成熟算法完成运动车辆的自动 检测和跟踪。
[0050]步骤1.2的具体工作过程为:
[0051]步骤1.2.1,背景获取与更新。一般情况下,在道路上获得的视频图像中总会有运 行车辆存在。为了对视频图像进行处理,首先需要对道路背景进行提取,即消除道路上运动 的车辆。背景获取使用了简单的背景模型,即对一定时间内的帧数进行中值滤波得到背景。 背景更新公式为:
[0052]
[0053] 式中,Bt(x,y)表示t时刻在(x,y)位置的像素点背景灰度值,Bt,n(x,y)表示B t(x,y) 更新后的值;Bt-Kxj)表示t-1时刻在(x,y)位置的像素点背景灰度值;It(x,y)表示t时刻 的图像在(x,y)位置的灰度值。
[0054]步骤1.2.2,产生差分图像。为了从道路交通运行状况视频图像中提取运动的车辆 目标,首先需要对当前帧图像和检测区的背景图像进行差分处理,提取前景信息。t时刻背 景差分公式为:
[0055] Dt(x,y) = It(x,y)-Bt,n(x,y)
[0056] 式中,Dt(x,y)表示t时刻在(x,y)位置的差分值。再对得到的差分图像Dt做二值化 处理,设阈值为Θ,二值化处理得到的输出图像为G t,其中Gt(x,y)表示在(x,y)位置的二值化 值。
[0057]
[0058]然后采用连通区域检测的方法,统计前景的每个连通区域,这些区域包括噪声和 所有的车辆目标;用形态滤波的方法去掉噪声,产生只有前景(运动物体)的图像。
[0059] 步骤1.2.3,确定目标形态特征并进行跟踪。本发明采用基于区域目标中心的跟踪 方法进行车辆跟踪,即在车辆检测结果中识别出一个个像素连通区域,用矩形区域表示检 测出的车辆,并提取运动车辆目标区域的形态特征对车辆进行表达。本发明实施例具体使 用偏心矩向量进行表征:
[0060] 根据前景区域的连通特性,将区域轮廓点集按逆时针顺序排序并表示为一个向量 的形式:Pt(pi,P2,…,Ρη),η为区域轮廓中的像素点个数,元素 Pi表示区域的第i个轮廓点,该 轮廓点的坐标设为(xi,yi)。
[0061 ]首先,计算区域重心C的坐标(xc,yc):
[0062]
[0063]然后,确定轮廓向量中每个元素?1的偏心矩cU,偏心矩cU定义为元素Pl与区域重心 C之间的距离。由此向量中各个元素与重心之间的距离可以构成一个偏心矩序列,将此偏心 矩序列定义为前景目标区域的偏心矩向量 :D(cU,d2,…,dn)。
[0064] 偏心矩向量均值施可以表示为:
[0065]
[0066] 偏心矩向量分散度M2可以表示为:
[0067]
[0068] 极大极小偏心矩之比M3可以表示为:
[0069]
[0070]计算得到的基于偏心矩向量的特征在区域目标的运动过程中具有较好的 稳定性,且具有平移、伸缩、旋转不变特性,因此,将Mi,MdPM3作为目标形态特征的最终表 达。在车辆检测与跟踪的基础上,最终获取每辆车真实行驶轨迹。
[0071 ]步骤1.3,基于车辆运动轨迹模式学习的交通事件识别。
[0072] 主要归结为与交通事件相关的车辆行为特征的分析:
[0073] (1)车辆速度变化:如果多数车辆在到达某区域前行驶速度突然减小,而在通过此 区域后又逐渐增加,那么在这个区域上可能有交通事件发生。
[0074] (2)车辆停驶:如果车辆在公路上突然停驶,通常认为是由于车辆相撞、车辆抛锚、 车辆故障或其它难以预计的原因引发的。
[0075] (3)车辆转换车道和方向:如果所有车辆在经过某段区域时都更换车道或行驶方 向,说明这个车道或前方有事故发生,后来的车辆必须避障行驶。
[0076] 步骤2,基于双视角特征提取之二一一基于外极面图的车辆运动态势分析。
[0077
当前第2页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1