基于图像的车辆位置获取方法与流程

文档序号:12471247阅读:179来源:国知局
本发明涉及机器视觉,特别涉及一种基于图像的车辆位置获取方法。
背景技术
:随着交通运输业快速发展的同时,道路交通安全问题日益突出,层出不穷的交通事故给社会造成巨大的经济损失和人员生命损失,成为了新的社会不稳定因素。机动车行驶安全状态视觉预警系统有助于改善交通安全性和提高道路安全管理能力,并能够对事故责任认定提供部分可视化证据。虽然机动车视觉安全预警技术已成为目前机动车安全设计的重点,但是现有的安全预警技术均存在一定的局限性。例如前车图像识别方法忽略了机动车轮廓在图像中所表现出的多方向特征信息,导致单一特征下局部有效鉴别信息的损失,未能较好地解决机动车识别过程中实时性与鲁棒性之间的矛盾。在安全车距监控中局限于前后车相对行驶速度的计算,没有解决安全车距监控决策中驾驶员主观反应时间的作用、相邻两车相对行驶状态的多变性等不确定性问题。技术实现要素:为解决上述现有技术所存在的问题,本发明提出了一种基于图像的车辆位置获取方法,包括:给定机动车特征训练样本图像(x1,y1),…,(xN,yN),yi∈{0,1},分别表示非车样本和机动车样本;初始化样本权值δi:δi=1/2pyi=11/2qyi=0]]>式中,p为机动车样本数量;q为非车样本数量;令t=1,…,T,T为总迭代次数,在第t轮特征训练中,对于每一个机动车样本的多方向特征,构造简单分类器ht∈[0,1];h(f(x),p,η)为:当pf(x)<pη时h=1,否则h=0;f(x)为像素x的特征值,η为预设阈值;p为极性函数;计算训练样本在ht中出现的分类错误率之和:εt=∑[ht(xi)-yi]2;选择迭代误差ε最小的简单分类器ht;更新训练样本权值:即将εt更新为εtexp[-yiht(xi)],i=1,2,…,N,正则化权值:∑iεt=1;由T个简单分类器线性组合输出最终分类器:H(x)=sign(Σt=1Tht(x))]]>通过最终分类器选择最优阈值,利用该阈值区分机动车样本和非车样本;对车载图像捕获设备采集的道路图像进行实时检测与判断,得到当前图像中前车所在的位置后,将水平中轴所在行亮度数据视为横坐标的一维函数g(x),对称轴取为矩形竖直中轴xs,宽度为矩形宽度w,以xs为中点,g(x)=g(xs+u)的奇分量O(u,xs,w)和偶分量E(u,xs,w):E(u,xs,w)=g(xs+u)/2+g(xs-u)/2-w/2≤u≤w/2O(u,xs,w)=g(xs+u)/2-g(xs-u)/2-w/2≤u≤w/2由能量函数计算对称度量:S(xs,w)=(Σu=-w/2w/2E2(u,xs,w)-Σu=-w/2w/2O2(u,xs,w))/(Σu=-w/2w/2E2(u,xs,w)+Σu=-w/2w/2O2(u,xs,w))]]>式中,xs为矩形竖直中轴;w为矩形宽度;当S(xs,w)=-1时,表示完全不对称;S(xs,w)=1时,表示完全对称;将上述对称度量进行熵值正则化:SYM=S(xs,w)/4Em其中Em为灰度图像信息熵最大值,当SYM大于预定义阈值时,确定前方机动车存在。本发明相比现有技术,具有以下优点:本发明提出了一种基于图像的车辆位置获取方法,在机动车轮廓识别过程中,充分利用多方向特征信息,兼顾识别过程中的实时性与鲁棒性,而在在安全车距监控中,根据相邻两车相对行驶的速度多变性给出全面的考虑,提高了公共交通安全预警管理能力。附图说明图1是根据本发明实施例的基于图像的车辆位置获取方法的流程图。具体实施方式下文与图示本发明原理的附图一起提供对本发明一个或者多个实施例的详细描述。结合这样的实施例描述本发明,但是本发明不限于任何实施例。本发明的范围仅由权利要求书限定,并且本发明涵盖诸多替代、修改和等同物。在下文描述中阐述诸多具体细节以便提供对本发明的透彻理解。出于示例的目的而提供这些细节,并且无这些具体细节中的一些或者所有细节也可以根据权利要求书实现本发明。本发明的一方面提供了一种基于图像的车辆位置获取方法。图1是根据本发明实施例的基于图像的车辆位置获取方法流程图。本发明在前车图像识别中,融合对前车的先验知识及其图像中的表现特征,限定目标检测与跟踪区域,根据道路图像亮度均值突变特征检测提出前车存在性假设,提取机动车样本多方向特征,对提取的特征样本训练分类,实现前车的准确定位,通过熵值正则化对称度量验证前车存在性假设,实现了机动车的检测识别。结合改进的预测模型对机动车检测结果进行动态实时跟踪。在安全车距计算中,通过建立基于车道平面约束的车距测量模型,实现了相邻前后车车距的精确测量,运用多传感器从驾驶员反应特征、机动车反应特性和道路环境出发,建立了多源信息融合的安全车距模型。根据车载图像捕获设备安装位置的先验知识约束搜索范围,将前车检测跟踪区域由整幅图像缩小到当前车道内,以车道线的聚点为中心,设置一个宽度为70像素,高度为50像素的矩形检测区域,机动车检测区域即为左、右两侧车道线与矩形区域共同限定的内部区域。在确定的矩形检测区域内,从道路图像的底部自下而上分别计算每一行像素的平均亮度值,搜索出图像中亮度均值突变最大的区域,就能够初步断定道路图像中是否可能存在机动车。G(r)=Σi=b(r)Lb(r)Rg(r,i)b(r)R+b(r)L+1]]>式中,G(r)为亮度均值;b(r)L为搜索区域内的第r行的左端像素坐标;b(r)R为搜索区域内的第r行的右端像素坐标;g(r,i)为像素点(r,i)的亮度值。在搜索区域内,亮度均值G(r)产生阶跃变化所在行的位置,可能对应着机动车的最下边缘,暂时设定已经探测到前车。若在整个搜索区域内没有灰度均值的跳变,则认为当前检测区域内不存在机动车。选择如下滤波器:Φ(x,y)=ω0πkexp[-ω02k2((xcosθ+ysinθ)2+(-xsinθ+ycosθ)2)]*sin(ω0(xcosθ+ysinθ))]]>方向θ通过下面表达式进行选择:θ=2kπ/n,k={0,1,2...n-1}式中,n为所采用的滤波器包含的角度的总数;ω0为预先确定的径向中心频率。将图像I(x,y)与上述滤波器进行卷积,通过滤波器的尺度的变化得到不同尺度上的方向反应,从而形成8方向。用小波变换系数W(x,y)反映机动车的图像特征。W(x,y)=∫I(x1,y1)Φ(x,y)*(x-x1,y-y1)dxdy给定机动车特征训练样本图像(x1,y1),…,(xN,yN),yi∈{0,1},分别表示非车样本和机动车样本。则样本的权值初始化过程如下:δi=1/2pyi=11/2qyi=0]]>式中,p为机动车样本数量;q为非车样本数量。在第t轮特征训练中,(t=1,…,T,T为总迭代次数),对于每一个机动车样本的8方向特征,构造简单分类器ht∈[0,1];h(f(x),p,η)为:当pf(x)<pη时h=1,否则h=0;f(x)为像素x的特征值,η为预设阈值;p为极性函数。计算训练样本在ht中出现的分类错误率之和:εt=∑[ht(xi)-yi]2;选择迭代误差ε最小的简单分类器ht;更新训练样本权值:即将εt更新为εtexp[-yiht(xi)],i=1,2,…,N,正则化权值:∑iεt=1;由T个简单分类器线性组合输出最终分类器:H(x)=sign(Σt=1Tht(x))]]>选择简单分类器,并基于特征值将训练样本分类。通过最终分类器选择最优阈值,利用该阈值区分机动车样本和非车样本。在离线训练模块,通过对在各种环境下采集到大量的机动车样本和非车样本的学习,针对机动车样本的8方向特征,通过分类器特征训练形成一系列的简单分类器,依据权重把这些简单分类器组合成最终分类器。在线识别模块则依据离线训练模块得到的最终分类器,对车载图像捕获设备采集的道路图像进行实时检测与判断,得到当前图像中前车所在的位置。在进行对称度量计算时,将水平中轴所在行亮度数据视为横坐标的一维函数g(x),对称轴取为矩形竖直中轴xs,宽度为矩形宽度w,以xs为中点,g(x)=g(xs+u)的奇分量O(u,xs,w)和偶分量E(u,xs,w)如下式所示:E(u,xs,w)=g(xs+u)/2+g(xs-u)/2-w/2≤u≤w/2O(u,xs,w)=g(xs+u)/2-g(xs-u)/2-w/2≤u≤w/2由能量函数计算对称度量如下式所示:S(xs,w)=(Σu=-w/2w/2E2(u,xs,w)-Σu=-w/2w/2O2(u,xs,w))/(Σu=-w/2w/2E2(u,xs,w)+Σu=-w/2w/2O2(u,xs,w))]]>式中,xs为矩形竖直中轴;w为矩形宽度。当S(xs,w)=-1时,表示完全不对称;S(xs,w)=1时,表示完全对称。引用熵值正则化的对称度量排除虚假机动车目标,对称度量定义为:SYM=S(xs,w)/4Em其中Em为灰度图像信息熵最大值,当SYM大于预定义阈值时,确定前方机动车存在。在进一步的实施例中,在单帧静态图像测距模型的基础上,本发明根据道路几何形态特征建立了一种的车距视觉测量模型。计算目标特征点P0与车载图像捕获设备的孔径圆心C在车道平面内的投影位置即原点O的距离|OP0|为:|OP0|=|OP|2+|PP0|2]]>其中点P计算为|CP|=h/cosβ,β为车载图像捕获设备的俯仰角,h为车载图像捕获设备的离地高度。|OP|=h×tan(π/2-β+tan(C0-P’0)/f)C0为车载图像捕获设备的光轴与图像平面交点,P’0为目标特征点P0在图像平面内对应的像素点,f为焦距。|PP0|=h/cosβ·kL+μkR1+μP′0f(kL+μkR1+μ)2+1]]>kL、kR分别表示像素平面内左、右两侧车道线的斜率;系数通过计算点O和点P的距离|OP|以及点P0和点P的距离|PP0|,得到|OP0|即作为本车与前车之间的车距。本发明建立的多源信息融合的安全车距模型,通过对前后车行为状态信息的视觉认知理解,估计前后车的相对速度以及车距。机动车在行驶过程中,驾驶员实施刹车时相邻前后车的相对位置关系表示如下:Ls为前后车安全车距,Lh为本车刹车时间内的行驶距离,Lf为前车行驶距离,D0为两车相对静止时的固定安全车距。则安全车距Ls=Lh-Lf+D01.当前车静止时,Lf为0,前后车的安全车距为:Ls=vh(te+tc+tz/2)+vh2/2ahmax+D0其中vh为本车速度,te为驾驶员反应时间,tc为制动系统协调时间,tz为减速时间,ahmax为本车最大刹车加速度。2.若前车以匀速行驶,Lf=vf(te+tc+tz/2+(vh-vf)abh);abh为本车刹车加速度。则前后车的安全车距为:Ls=vr(te+tc+tz/2)+vr2/2abh+D0其中vr为两车相对速度,其获取方法为:vr=(Li-Li+1)/Δt;Li与Li+1分别为时间间隔Δt前后由车载图像捕获设备通过上述过程测量得到的本车与前车的车距。3.若前车处于匀减速行驶时,分为本车车速高于、等于前车车速两种情况。①本车车速高于前车车速时,前车的行驶距离为:Lf=(vf2-v’f2)2abf式中,v’f为前车减速过程中某一时刻瞬时速度;abf为前车刹车加速度,其计算方法为:abf=(vi+1f-vif)/Δt;vi+1f=(Li+2-Li+1)/Δt+vi+1hvif=(Li+1-Li)/Δt+vihLi,Li+1,Li+2分别为每间隔Δt测得的三次连续车距数值。vih,vi+1h为间隔Δt前后本车车速。本车驾驶员反应和刹车协调时间开始实施减速,其行驶距离为:Lh=vh(te+tc+tz/2)+(vh2-v’f2)/2abh此时,若两车最大刹车加速度相同,则:Ls=Lh-Lf+D0=vh(te+tc+tz/2)+vr(2vh-vr)/2ahmax+D0②本车车速等于前车车速时,本车调整刹车加速度以维持与前车的跟随状态,则安全车距为:Ls=vh(te+tc+tz/2)+(vf2/2)(1/abh-1/abf)+vf2/2abf+D0综上所述,本发明提出了一种基于图像的车辆位置获取方法,在机动车轮廓识别过程中,充分利用多方向特征信息,兼顾识别过程中的实时性与鲁棒性,而在在安全车距监控中,根据相邻两车相对行驶的速度多变性给出全面的考虑,提高了公共交通安全预警管理能力。显然,本领域的技术人员应该理解,上述的本发明的各模块或各步骤可以用通用的计算系统来实现,它们可以集中在单个的计算系统上,或者分布在多个计算系统所组成的网络上,可选地,它们可以用计算系统可执行的程序代码来实现,从而,可以将它们存储在存储系统中由计算系统来执行。这样,本发明不限制于任何特定的硬件和软件结合。应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1