一种基于主动学习的夜间前方车辆识别方法与流程

文档序号:12864160阅读:275来源:国知局
一种基于主动学习的夜间前方车辆识别方法与流程

本发明涉及图像处理技术领域,具体涉及一种夜间前方车辆的识别方法。



背景技术:

随着国民经济的高速发展和城镇化、机动化进程不断加快,我国机动车拥有量及道路交通量急剧增加。交通拥挤阻塞以及由此导致的一系列交通问题己经成为制约城市经济发展和人民生活水平提高的瓶颈。目前在车辆自动识别过程中,只需要将车牌和车轮胎识别出来,就能确认前方的是不是真实的车辆,但这种识别方式主要应用于白天。但是在晚上,全都是黑漆漆的一片,对于车牌的识别辨识度无法达到要求。而傍晚和夜间是交通拥堵的高发时段,对于辅助驾驶系统或者无人驾驶系统来说,更需要准确、实时、稳定的夜间前方车辆识别系统的方案。



技术实现要素:

本发明要解决的技术问题是,提供一种基于主动学习的夜间前方车辆识别方法,解决夜间驾驶中遇到的车辆识别和检测困难的问题,该方法适用于辅助驾驶系统的前方车辆检测系统以及汽车防碰撞系统,提高汽车的安全性,增强目标识别系统的准确性和抗干扰性。

为解决上述技术问题,本发明提供如下技术方案:

一种基于主动学习的夜间前方车辆识别的方法,其特征在于:在车辆上配置车载相机和图像处理系统,通过采集车辆尾灯图像,并进行大量学习训练,基于主动学习的方法在夜间通过车辆尾灯识别具体车辆。

进一步的,本发明主要包括如下步骤:

步骤1:首先利用汽车的车载相机对前方的车辆进行拍照,提取图像数据;然后对图像进行中值滤波和二值化;

步骤2:使用adaboost学习分类器,对大量的夜间车辆图像数据集进行学习,得到学习后的学习分类器;

步骤3:最后利用学习后的深度学习机来识别可能作为车辆的假定目标,并将假定车辆的区域标记为感兴趣区域;根据车辆的颜色和几何性质,利用先验知识,对假定车辆的感兴趣区域进行确认。

进一步的,步骤1中利用车载相机采集获得的道路上的实时图像,然后对实施图像进行预处理,得到预处理之后的二值化的图像;所述的预处理包括图像的滤波去除噪点、图像阈值分割。

进一步的,步骤2中将二值化处理之后的图像,统一放入深度学习的正样本数据集,然后利用adaboost学习分类器调用样本数据集,对大量的夜间车辆数据集进行学习训练,得到学习后的学习分类器。

进一步的,步骤3中,经过训练后的adaboost学习分类器训练之后,产生一个训练文件,训练文件会对输入图片进行标定,我们将标定之后的图片,再基于先验知识,对假定车辆的感兴趣区域进行确认,最终找到准确的前方车辆。

进一步的,步骤3中应用adaboost算法的分类器,对图像中分类器识别出来的疑似车辆进行初步的标定,之后对已经初步标定的感兴趣区域进行进一步确认,找到图像中真正的车辆:过程如下:

首先,进行水平面的坐标系校准;将给定图像i的车道上选择4个点,创建一个虚拟的透视图像的转换图像;之后,应用adaboost算法的分类器,对图像中分类器识别出来的疑似车辆进行初步的标定,初步标定的区域我们定义为感兴趣区域:

在图像i中,对于经过标定处理之后的感兴趣区域,我们定义感兴趣区域为rh,包括四个要素:x,y表示图像i中矩形感兴趣的左上角的横纵坐标,w表示矩形感兴趣区域的宽度,h表示矩形感兴趣区域的高度,因此rh=[xywh]四个参数就可以表示出感兴趣区域四个角的具体坐标;

对已经初步标定的感兴趣区域进行进一步确认,找到图像中真正的车辆:过程如下:

如果在感兴趣区域rh中,左尾灯的亮度和右尾灯的亮度分别满足我们设定的强度阀值tβh和tβv,并且左右两个尾灯区域的红光强度左尾灯的红光强度μltail和右尾灯的红光强度μrtail分别满足我们设定的左右尾灯的强度阀值tμl和tμr;如果两个条件同时满足,那么我们认为感兴趣区域内的车辆是真实的;否则感兴趣区域将被排除。

本发明基于主动学习的方法在夜间对车辆进行识别。本发明设计新颖,操作性强,能够为汽车的研发提供更安全的保障。

与现有技术相比,本发明的有益技术效果是:

本发明对于夜间前方车辆识别技术的发展状况,提出了一种更符合实际和经济性能的车辆识别的方法,因为主动学习的识别速度与数据集的数量成正比,数据集越大,识别速度越快,因此经过大量学习之后,可以很大的提高图像处理的速度和精确率。本系统还可以与智能交通系统和汽车安全与辅助驾驶系统提供接口。而交通拥挤阻塞等交通问题是制约整个智能交通系统的最大瓶颈。本发明寻求更符合实际的车辆识别与检测方法,对我国智能交通和汽车安全与辅助驾驶系统的发展与完善有着重要意义。

附图说明

图1为夜间前方车辆识别系统的实施流程图。

图2为几何约束与单应性的坐标系转换示意图。

图3为感兴趣区域排除示例,粗线框为已经确认的车辆,细线框为排除的感兴趣区域。

具体实施方式

下面结合附图,对本发明的技术方案作进一步详细地说明。

根据本发明实施的一种基于主动学习的夜间前方车辆识别的方法,其特征在于包括以下几个步骤:

步骤1:对获得的道路上的实时图像进行预处理,得到预处理之后的二值化的图像;步骤(1)所述的预处理包括图像的滤波去除噪点、图像阈值分割,

(1-1):滤波去除噪点;

选择中值滤波方法平滑图像,进行去噪。中值滤波的具体过程为:首先,将具有奇数点的滑动窗口遍历整个图像;然后,将窗口内的像素的灰度值从小到大排列;最后位于中间值的灰度值取代窗口中心像素的灰度值。

(1-2):图像阈值分割;

首先,将数据集上的rgb图像转换为ycbcr模式。我们首先根据如下公式将数据集上的rgb图像转换为ycbcr模式。rgb色彩模式是工业界的一种颜色标准,是通过对红(r)、绿(g)、蓝(b)三个颜色通道的变化以及它们相互之间的叠加来得到各式各样的颜色的,rgb即是代表红、绿、蓝三个通道的颜色;ycbcr是色彩空间的一种,通常会用于数字影像显示中,y表示颜色的亮度成分、而cb和cr则表示蓝色和红色浓度的偏移量。

将矩阵化简,可得如下的公式:

r=1.164×(y-16)+1.596×(cr-128)

g=1.164×(y-16)-0.392×(cb-128)-0.813×(cr-128)

b=1.164×(y-16)+2.017×(cb-128)

在上述两个公式中,rgb和ycbcr各分量的取值范围都是0-255。由于夜晚的灯光照射区域,与黑暗处的对比明显,我们只取cb的最大值为100,cr的最小值为100。对数据集的图像进行二值化。

步骤2:使用adaboost学习分类器,对大量的夜间车辆数据集进行学习;步骤(2)所属的内容包括haar-like特征值积分图的计算、adaboost分类器的算法与设计,具体如下:

(2-1):haar-like特征值积分图的计算。只需按行或按列搜索遍历一整张图像,就可以得到这张图像的积分图,不需要重复搜索,避免了算法的耗时问题。

(1)直立的haar-like特征的积分图算法

我们建立以左上角的顶点(0,0),水平与垂直方向分别为x轴和y轴的坐标系。对于任意一个像素点(a,b)所构成的矩形内所有像素灰度值之和构成的积分图。

特征图的数学表达式为:

其中,sat(a,b)表示积分图的面积,i(x,y)是原始图像f(x,y)在点(x,y)灰度值,将表达式打开,可以得到:

sat(x,y)=sat(x,y-1)+sat(x-1,y)+i(x,y)-sat(x-1,y-1)

无论矩形的尺寸大小,对于任意符合直立haar-like特征的矩形r=(x,y,w,h,0),只需查找积分图像4次,做三次加减法运算,就可以求得任意矩形的像素和。在实现时只需按行或按列搜索遍历一整张图像,就可以得到这张图像的积分图,不需要重复搜索,避免了算法的耗时问题。

rectsum(r)=sat(x-1,y-1)+sat(x+w-1,y+h-1)

-sat(x-1,y+h-1)-sat(x+w-1,y-1)

(2)旋转45度的haar-like特征的积分图算法

求取旋转45度的haar-like特征积分图的表达式为:

其中,satr(a,b)表示积分图的面积,i(x,y)是原始图像f(x,y)在点(x,y)灰度值,将表达式打开,可以得到:

satr(x,y)=satr(x-1,y-1)+satr(x+1,y-1)-satr(x,y-2)

+i(x,y)+i(x,y-1)

与直立haar-like特征相类似,对于任意符合旋转45度的haar-like特征的矩形r=(x,y,w,h,α),要得到像素灰度值之和,也只是需查找积分图像4次,做3次加减法运算就可以了。

rectsum(r)=satr(x-h+w,y+w+h-1)+satr(x,y-1)

-satr(x-h,y+h-1)-satr(x+w,y+w-1)

在特征算法实现时只需按行或按列搜索遍历一整张图像,就可以得到这张图像的积分图,不需要重复搜索,避免了算法的耗时问题。

(2-2):adaboost算法实施过程。对于分类器的整个训练过程,我们可以用以下算法来构建和描述:

①开始初始化d,kmax,w1(i)←1/n,i=1,...,n;

②k←0;

③执行k←k+1;

④训练采用按照wk(i)标准来采样d的弱分类器

⑤ek←用按照wk(i)标准来采样d的样本集测量的训练误差;

⑧直到k=kmax;

⑨结束。

步骤3:利用分类器标定感兴趣区域;然后基于先验知识,对假定车辆的感兴趣区域进行确认;过程如下:

首先,进行水平面的坐标系校准;将给定图像的车道上选择4个点,创建一个虚拟的透视图像的转换图像;

对于一张图像,在图像域中,对于给定的图像i(或透视图),我们在车道上选择4个点。然后,我们根据给定的图像与或者透视图,创建一个虚拟的透视图像的转换图像,如图2所示,图像可以从相机的坐标系,转换为实际的空间坐标系。在图像区域中的4个点p到p'可以映射到转换后的图像中的p'1到p'4。为下一步的步骤做准备。

之后,应用adaboost算法的分类器,对图像中分类器识别出来的疑似车辆进行初步的标定,初步标定的区域我们定义为感兴趣区域:

在图像i中,对于经过标定处理之后的感兴趣区域,我们定义感兴趣区域为rh,包括四个要素:x,y表示图像i中矩形感兴趣的左上角的横纵坐标,w表示矩形感兴趣区域的宽度,h表示矩形感兴趣区域的高度,因此rh=[xywh]四个参数就可以表示出感兴趣区域四个角的具体坐标;

最后,对已经初步标定的感兴趣区域进行进一步确认,找到图像中真正的车辆:过程如下:

对于假定车辆进行确认的第一步操作,是移除与应用adaboost算法的分类器标定的感兴趣区域不相关的部分。给定一个标定的感兴趣区域,车辆的大小应该在一个特定的比例,例如,当一辆车接近另一辆车的时候,车辆的大小不能比另一个特定尺寸的车辆差距特别大,反之亦然。同时,车辆轴宽度决定了感兴趣区域的宽度。

如图3所示,粗线框为已经确认的车辆,细线框为排除的感兴趣区域。如果在感兴趣区域rh中,左尾灯的亮度和右尾灯的亮度分别满足我们设定的强度阀值tβh和tβv,并且左右两个尾灯区域的红光强度左尾灯的红光强度μltail和右尾灯的红光强度μrtail分别满足我们设定的左右尾灯的强度阀值tμl和tμr;如果两个条件同时满足,那么我们认为感兴趣区域内的车辆是真实的;否则感兴趣区域将被排除。

上面对本专利的较佳实施方式作了详细说明,但是本专利并不限于上述实施方式,在本领域的普通技术人员所具备的知识范围内,还可以在不脱离本专利宗旨的前提下做出各种变化。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1