基于双视角学习的山区高速公路车辆事件检测方法_3

文档序号:9751961阅读:来源:国知局
] 目前的交通事件视频自动检测产品一般主要采用单视角的思路,针对运动车辆时 空轨迹单一特征进行处理与分析。一方面,运动车辆时空轨迹跟踪的鲁棒性针对各种复杂 的室外环境有待进一步提高;另一方面,针对交通事件检测本身的高层语义理解的本质,需 要多视角特征完成底层特征到高层语义之间的联系。
[0078]步骤2.1,基于Hough变换及场景动态图的高速路车道自动检测。
[0079]由于高速公路道路是特定的高度结构化的场景,车辆正常只能沿着车道固定行 驶。高速公路特定场景中车道线的信息完全表现了车辆的正常行驶状态。因此,本工作的第 一步就是提取车道线信息,如图3所示。图3的(a)和(b)中黑色直线为提取的车道线。
[0080]步骤2.2,基于跟踪线的分车道运动车辆时空外极面图生成。
[0081]根据步骤2.1所提取的车道线,分别为每个车道设置贯穿整个摄像机视野范围的 跟踪线。车辆跟踪线可以选定为车道线,也可以选定为车道中心线,即两个相邻车道线的中 间位置,只要保证每辆车行驶通过摄像机视野范围内的任意时刻,都必须通过某一条跟踪 线。再分别把这些跟踪线在时间轴上进行累积,生成外极面图(Epipolar Plane Image, EPI)。因此,可以通过如此处理过程将运动分析转化为二维EPI上轨迹线的提取。
[0082]本发明实施例选取车道线或/和相邻车道线的中间线为跟踪线。图4表示了外极面 的生成过程,其中(a)为所生成的对应于某一条跟踪线的外极面图,横坐标表示了跟踪线的 空间信息,纵坐标表示了时间帧信息。(a)中三条黑线表示不同时刻图像帧沿该跟踪线的像 素排列。图4的(b)为跟踪线所对应的交通视频序列不同时刻的图像帧,其中的黑线表示所 设定于多条车道的跟踪线。
[0083]图5的(a)~(c)表示了外极面图透视投影修正以及线段检测的过程,所检测到的 线段如图中白线所示。
[0084] 步骤2.3,基于分车道外极面图的车辆运动态势特征提取。
[0085] 交通断面车辆整体态势的分析就转化为EPI图像上线段特征的提取及其斜率分 析,如图5所示。计算所有车辆外极面图所形成线段检测的斜率,即为车辆行驶速度的表示, 并进一步求得车辆行驶速度的方向以及车辆行驶加速度。主要归结为与交通事件相关的车 流整体特征的计算:
[0086] (1)平均空间速度,也即车道平均速度:交通事件发生后,会有车辆停止在车道上, 使道路有效宽度减小,阻碍其它车辆正常通行,其它车辆在通过事发地点时平均速度会降 低,即交通流的平均空间速度会降低。此特征可以检测交通拥堵、交通事故等影响范围比较 大的事件。
[0087] (2)车辆行驶速度的方向:对于单车道外极面图而言,由于摄像机所假设的位置影 响,各外极面图的车辆不是由近及远,就是相反。这两种方向在外极面图上的线段斜率方向 是相反的。根据外极面图上的线段斜率方向来确定车辆行驶速度的方向,该特征可以检测 车辆逆行事件。
[0088] (3)空间速度变化幅度,是指交通流的平均空间速度变化幅度:交通事件发生后, 会有车辆停止在车道上,使道路有效宽度和车道数减小,阻碍其它车辆正常通行,其它车辆 在通过事发地点时平均速度会降低,即交通流的平均空间速度会降低。此特征可以检测交 通拥堵、交通事故等影响范围比较大的事件。
[0089]步骤3,基于双视角学习的决策层融合。
[0090] 基于双视角学习的山区高速公路交通事件检测最终输出结果分为两部分内容。首 先是交通事件检测的判断,即某项交通事件是否发生。此部分内容涉及融合各视角交通事 件检测结果,获得最终的融合评判结果。其次是交通事件检测定位结果,即所发生的交通事 件所在的图像区域,此部分内容涉及到图像融合定位。
[0091] 步骤3.1,决策层融合评判。
[0092] 对于本发明所提出的基于双视角学习的山区高速公路交通事件检测方法,任意视 角的视频底层特征都从一个具体侧面表达了交通事件,能够完成交通事件视频自动检测。 在每个视角对交通事件检测目标做出识别后,基于双视角学习的交通事件检测方法,将两 个视角的检测结果进行决策层融合,最终获得更鲁棒一致的检测结果。
[0093] 决策层融合是指在每个视角对交通事件检测目标做出识别后,将多个视角的检测 结果进行融合并最终得到整体一致的决策。决策级融合是一种高层次的融合,直接针对具 体决策目标,充分利用特征级融合所得出的各类特征信息,并给出简明而直观的结果。为了 方便计算,经常选用"与"准则和"或"准则。其中,"与"准则允许交通事件被接纳为真正的检 测结果,只有在所有不同的子系统的使用不同的特征提供的决定积极的验证结果。使用此 规则的方法产生一个低错误接受率,也导致了较高的错误拒绝率。"或"准则将允许交通事 件被接纳为真正的检测结果,只要任意一个子系统通过了检测。一般情况下,该规则会产生 一个较低的错误拒绝率和较高的错误接受率。本发明实施例中选用"或"准则完成对于双视 角各自识别检测结果的决策层融合评判。
[0094]步骤3.2,图像融合定位。
[0095]基于多视角学习的交通事件图像融合定位需要合理地将各视角定位结果进行融 合。交通事件在图像中的发生位置由一个矩形框来表示。设交通事件检测定位矩形框由四 元组(X,y,w,h)表达,分别表示交通事件矩形框左上角的图像坐标(x,y)以及矩形框的宽w 和高h。设各视角的交通事件检测定位矩形框为(^,^,^九),」对应各视角,本发明中有两 个视角,则j = l,2。基于多视角学习的交通事件图像融合定位问题可以简化为多个平面四 边形的求并集问题。所求的多边形就是多视角学习的交通事件图像融合定位结果。
[0096] 本发明以车辆相关的4种交通事件:交通拥堵,车辆逆行,车辆违规停车,交通事 故,为例,在现有广泛应用的反映车辆独立行为的车辆行驶轨迹特征基础上,基于道路交通 结构化的特点针对性地提出分车道时空外极面图反映车流整体特征,从而形成交通事件本 身两个视角(车辆各自独立行为和交通断面车流整体特征)的特征,在双视角融合框架下完 成山区高速公路车辆事件鲁棒检测。
[0097] 所有种类的交通事件检测都需要经过这些步骤,以便完成双视角的交通事件视频 特征提取,并进一步实现融合判断得出更鲁棒的交通事件发生与否的判断以及确定车辆事 件发生的位置。下面主要针对本发明所涉及的各种车辆交通事件进行分析。
[0098] (1)交通拥堵。
[0099]车辆运动轨迹表示车辆位置随时间变化的实时信息。通过视角一,对车辆运动轨 迹跟踪,可计算每辆车的位移变换,实时得到车辆的行驶速度。当所有车辆的行驶速度都有 减小的趋势,则认为该路段发生了车辆拥堵。基于外极面图的检测方法主要分析车道平均 速度随时间的变化趋势。通过视角二,根据外极面图获取车道平均速度随时间的变化趋势, 如果所有车道的平均速度低于预先设定值,就认为发生了车辆拥堵。基于双视角学习的交 通拥堵检测过程如图6所示。图6中,(al)是车辆拥堵原始视频,对该路段通过视角一检测, 得到(a2)车辆拥堵车辆运动轨迹跟踪及事件检测结果,通过视角二检测,得到(bl)车辆拥 堵分车道外极面图、(b2)外极面图的线段特征及事件检测结果。图6的(cl)为检测到车辆拥 堵交通事件的视频图像;(c2)是基于双视角学习的车辆拥堵检测结果图。
[0100] (2)交通事故。
[0101 ]视角一基于车辆运动轨迹的检测方法中,计算车辆两两之间的间距变化。当有间 距小于给定的阈值时,则发生了车辆碰撞,而且主要体现为车辆轨迹的异常变化。视角二基 于外极面图的检测方法主要比较车道平均速度的变化。如果某车道平均速度变化幅度较 大,超过设定阈值,就认为发生了交通事故事件。基于双视角学习的交通事故检测过程如图 7所示。图7中,(al)是涉及交通事故的某帧原始视频图像;(a2)是通过视角一检测,进行交 通事故车辆运动轨迹跟踪及事件检测结果;(bl)是通过视角二检测得到的交通事故分车道 外极面图;(b2)是外极面图的线段特征及事件检测结果。图7的(cl)是检测到交通事故车辆 事件的视频图像,(c2)是用本发明方法检测的交通事故检测结果。
[0102] (3)车辆逆行。
[0103] 视角一基于车辆运动轨迹的检测方法计算车辆前后两帧之间的方向向量,得到车 辆逆行行为的判断。以检测视频感兴趣区域某设定方向为正常行驶方向f,则正常方向车辆 前后两帧质心运动的方向向量应该始终该特定方向。若逆行发生时,则该逆行车辆的运动 轨迹前后两帧质心运动的方向向量与f并不相同。一般采取多帧相加
当前第3页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1