基于无人机监控的交通流密度检测方法及系统的制作方法_4

文档序号:9766474阅读:来源:国知局
并统计 所选定的所述交通视频图像信息中多个时刻所对应的多帖样本图像中进入所述虚拟区域 内的车辆数量W及计算得到在所述检测周期内进入所述虚拟区域的平均车辆数;
[0110] 本实施例中,为便于计算得到当前检测周期所对应的交通流密度,因此,交通图像 处理模块202对获取到的交通视频图像信息进行处理W实现对该交通视频图像信息中进入 虚拟区域内的车辆数量的统计。本实施例中优选采用运动分割的方式对交通视频图像信息 进行处理,也即通过运动分割,将视频图像中运动的部分(车辆)与相对静止的部分(背景) 进行分割,从而便于对进入虚拟区域内的车辆进行统计。
[0111] 此外,本实施例中,为获得当前检测周期内进入设定的虚拟区域的平均车辆数,因 此,需要选定多个时刻并分别统计该多个时刻所对应的多帖样本图像中进入虚拟区域内的 车辆数量,进而得到当前检测周期的平均车辆数。
[0112] 交通流密度计算模块203,用于根据所述虚拟区域所对应的路段长度与所述平均 车辆数,计算得到当前所述检测周期内的交通流密度。
[0113] 本实施例中,交通流密度计算模块203根据上述计算所得到的平均车辆数W及对 应虚拟区域所对应的路段长度,计算当前所述检测周期内的交通流密度。其中,具体的计算 方式及过程不限。比如对虚拟区域所对应的路段的车道数、车道长度等进行标准化处理等。
[0114] 基于现有技术中一般都是通过时间占有率或者空间占有率来间接判定交通流密 度,或者通过流量与速度公式计算得到交通流密度,但该类方式并不能精确反映当前的交 通流密度,同时计算过程也比较繁琐复杂。
[0115] 因此进一步可选的,在本发明基于无人机监控的交通流密度检测系统一实施例 中,根据交通流密度的定义建立交通流密度数学模型,也即交通流密度计算模块203根据虚 拟区域所对应的路段长度与计算得到的平均车辆数构建交通流密度数学模型,其中,所述 交通流密度数学模型为:
[0116] K = Q/!;
[0117] 其中,K为交通流密度,L为虚拟区域的路段长度,Q为虚拟区域路段内的瞬时平均 车辆数。本优选实施例中仅需根据虚拟区域所对应的路段长度W及进入该虚拟区域的瞬时 平均车辆数即可计算得到当前检测周期内的交通流密度,也即直接根据交通流密度的定义 计算交通流密度,从而简化了交通流密度计算过程,同时也保证计算结果的精确性。需要进 一步说明的是,虚拟区域路段内的瞬时平均车辆数(也即Q)具体是指为便于测量平均车辆 数而在当前检测周期内的多个非连续的瞬时时刻所对应的样本图像中所统计得到的进入 虚拟区域路段内的平均车辆数,也即可认为该Q值即为在当前检测周期进入虚拟区域的平 均车辆数。
[0118] 本实施例中,通过无人机(带有摄像机)实时获取道路的车流情况(也即交通视频 图像信息)W捕捉道路上一定区域内的所有车辆,获取瞬间的车辆数,进而可W计算出对应 的交通流密度。相比其他检测方法,无人机价格相对低廉,同时无人机监控检测法可实现对 重点路段的实时监控W及可进行多个区域巡回监控检测且精确度较高。此外,采用无人机 拍摄交通视频图像,不仅降低了拍摄设备的成本,同时进一步可根据实际需要调整拍摄的 高度、角度及拍摄区域等,从而可保证交通数据信息的实时性W及准确性,进而可相应提高 交通流密度计算的精确性,比如为交通管理部口提供准确的决策依据,通过与城市信号控 制系统和交通诱导系统进行协调,进而缓解部口路段的交通拥堵情况。此外,本实施例中仅 统计在检测周期内进入设定的虚拟区域的车辆数量,因而通过虚拟区域限定了图像处理的 像素区域范围,进而可简化对图像的处理效率W及提高了车辆识别的精度。
[0119] 参照图12,图12为图10中交通流密度检测装置第二实施例的细化功能模块示意 图。本实施例中,所述交通流密度检测装置还包括:
[0120] 虚拟区域划定模块204,用于根据所述无人机所监控的目标道路的结构特征,在所 述无人机的监控视野内划定所述虚拟区域并标定所述虚拟区域所对应的路段长度,其中, 所述虚拟区域包括多个虚拟线圈且所述虚拟线圈分别对应覆盖所述目标道路的同向所有 车道。
[0121] 本实施例中,目标道路的结构特征具体包括道路的车道数、车流方向、监测视野内 的道路长度W及是否有弯道等等,目标道路的结构特征由虚拟区域划定模块204自动识别 并完成虚拟区域的设定,从而在无人机的监控视野内划定虚拟区域,而系统(比如交通监控 平台)则只会在虚拟区域内进行车辆捕捉并进行车辆数统计,从而可避免其他目标道路外 移动因素的干扰。虚拟区域需要根据目标道路的结构特征来划定,并且还需要标定出对应 的目标道路的路段长度,W便于后续计算。其中,虚拟区域进一步包括多个虚拟线圈且拟线 圈分别对应覆盖目标道路的同向所有车道,如图5所示的虚拟区域一实施例的示意图。
[0122] 本实施例中,根据道路结构,在监控视野内划定虚拟区域,并且标定出该虚拟区域 路段的实际长度。虚拟区域的路段长度一旦标定出来,且获取到虚拟区域内的平均车辆数, 即可计算出该区域路段的交通流密度,从而能够W更为简便地方式获得被监控的任意路段 的交通流密度。
[0123] 参照图13,图13为图11中交通图像处理模块的细化功能模块示意图。基于上述实 施例,本实施例中,所述交通图像处理模块202包括:
[0124] 图像分割单元2021,用于采用背景差分法并基于动态的分割阔值对所述交通视频 图像信息进行运动分割处理,得到多帖样本图像中分别进入所述虚拟区域内的车辆所对应 的像素点集合;
[0125] 本实施例中,运动分割的目的在于把视频图像中运动的部分与相对静止的部分进 行分割。由于无人机的摄像机与路面位置保持相对静止,因此可采用背景差分法来进行运 动分割。其基本实现原理为:首先把视频图像中的静止部分提取出来,作为参考背景,然后 再把当前帖样本图像与参考背景相减,并将差值进行二值化处理,最后统计发生变化的像 素的数量,而当变化超过噪声阔值(也即固定的分割阔值)后便可W认为有车辆经过了虚拟 区域。
[0126] 此外,本实施例中,基于W下=点的考虑:第一,照明条件的存在不稳定性,如强烈 的阳光突然被乌云遮挡,简单的相减会认为几乎整幅图像都发生了变化。第二,运动点的连 续性,因为运动的是汽车等较大的物体,所W运动点应在空间上与其他点相连接,那些孤立 的点很可能是由噪声引起的。第=,视频捕获传输信道存在噪声,即使光照条件和景物都没 有发生变化,像素点的RGB亮度仍有可能发生一定的变化。为适应上述因素所引起的变化, 因此,基于W上=点的考虑,本实施例中,采用局部动态阔值进行运动分割并具体根据W下 式子进行(依RGBS种颜色计算):
[0130] W上=个式子只要有一个成立,坐标点(x,y)就可被判断为运动的物体,否则,就 是静止的背景点。对于运=个式子的理解如下:
[0131] 1)、lR,t(x,y)表示坐标为(x,y)的像素点的红色通道在t时刻的灰度值,BR,t(x,y) 表示(x,y)的像素点在t时刻参考背景的灰度值,其中,I、B通常取[0,25引间的整数,Ie,t(x, 7)、16,1;(又,50、8。,1;(又,50、86,1;(又,50与虹1;^,50、1^,1;(又,50类似。
[0132] 2)、日,0都是常数。
[0133] 3)、nt(x,y)是一个连通因子,它的值与点(x,y)的八邻域(即与之相邻的八个点, 如图7所示)的运动属性有关,= f ^ "Wx'y)其中M(x/,y/)是一个二进制量。 如果点,/)是运动点,那么,/)为1;否则为0。因为扫描顺序的关系,排在(x,y)后 面的四个点的值可W用上一帖的运动属性来确定。不难知道,如果待处理点(x,y)周围运动 点越多,(x,y)的分割值就越小,(x,y)就越容易被判为运动点;反之亦然。
[0134] 4)、〇t(x,y)是标准差,其定义是:
[0136] 其中,y(x,y)是数学期望。有时为了节省内存空间和运算时间,标准差可W利用递 增的方法进行计算(W红色通道为例):
[0137] 〇^,t(x,y) = (l-p)〇^R,t-i(x,y)+p[lR,t(x,y)-BR,t(x,y)]^
[0138] 其中P可W是一个时间的变量,也可W地近似认为是一个常数。其他两个颜色通道 的标准差的计算与红色通道相同。
[0139] 5)、kt(x,y)是对照条件变化的考虑。如图8所示,先把当前一帖的图像划分为一个 个小的正方形区域Wi J,每个窗口的边长是m个像素,m的取值根据被检测物体的大小确定, 对于车辆的检测,一般取5-9"(x,y)必属于所有正方形区域中的一个,记为S,那么
[0141 ]车辆跟踪统计单元2022,用于采用多目标跟踪算法对所述像素点集合进行跟踪, 并对应统计进入所述虚拟区域的车辆数量;
[0142] 通过上述运动分割处理后所得到多帖样本图像中分别进入虚拟区域内的车辆所 对应的像素点集合,进而可进行车辆数量的统计,但由于虚拟区域内可能存在多部车辆,而 仅仅通过每个车道仅有的虚拟线圈来捕捉车辆是无法满足多车辆同时捕捉需求的,因此, 本实施例中优选采用多目标跟踪算法对虚拟区域内所有车辆进行捕捉并计数。多目标跟踪 算法与现
当前第4页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1