一种基于车牌位置的车距检测方法_2

文档序号:9350944阅读:来源:国知局
值化图像中(Xi,y;)处的像素灰度值;
[0049] d、计算当前帧图像中目标车辆的车牌中心点位置距图像下边界的距离。
[0050] 所述的基于车牌位置的车距检测方法,还包括:当所述目标车辆距本车车头的距 离小于预设的安全距离时,进行语音报警。
[0051] 由上述技术方案可知,本发明采用机器视觉学习算法,精确定位前车车牌位置,基 于目标跟踪技术进行车牌的重复定位,基于线性插值算法进行目标位置深度表的标定;与 现有方法相比,算法速度更快,车距计算更精确。
【附图说明】
[0052] 图1是本发明的方法流程图;
[0053] 图2是车牌检测分类器的训练正样本图像;
[0054] 图3是车牌检测效果图;
[0055] 图4是车牌位置区域的二值化图像;
[0056] 图5是车牌中心点位置图。
【具体实施方式】
[0057] 下面结合附图和具体实施例进一步说明本发明。
[0058] 如图1所示,一种基于车牌位置的车距检测方法,包括以下步骤:
[0059] S1、判断是否需要初始化系统参数,如果需要,进入步骤S2,否则,进入步骤S3。
[0060] S2、初始化系统参数,系统参数包括车牌检测分类器和目标位置深度表,具体标定 步骤如下:
[0061] S21、获取车牌检测分类器,具体步骤如下:
[0062] S211、收集车辆前方正负30度内不同距离的车牌图像作为训练正样本,如图2所 示;
[0063] S212、基于hog特征和adaboost学习算法训练车牌分类器文件;有关hog特征的 定义可以参见文南犬:HistogramsofOrientedGradientsforHumanDetection,Navneet Dalai,BillTriggs,CVPR2005。
[0064]S22、获取目标位置深度表:
[0065] 根据摄像机的成像原理可知,当物体距离摄像机越远,其成像在图像中的位置就 会距离图像下边界越远,同时,由于设备本身的生产误差和图像采集时的不确定误差,会使 得这种对应关系变成一种非线性映射关系,常规方法无法获取精确的标定值,因此,我们根 据"blackbox"理论,把这种非线性映射关系表示为下式:
[0066] AZ=W*AD
[0067] 其中,W为未知的"blackbox"变量,AZ为物体距摄像机的实际距离,AD为图像 中物体位置距图像下边界的像素距离,即图像中物体位置的偏移量。
[0068] 此时,标定的过程变成了在已知目标距摄像机的实际距离AZ和图像中目标位置 的偏移量AD的情况下,获取对应的比例关系系数W,具体步骤如下:
[0069] S221、在车辆正前方,每隔5米分别放置一个白色的窄长方形纸板,使用车载摄像 机采集所有长方形纸板的图像。
[0070] S222、计算图像中每个长方形纸板位置距图像下边界的距离,即是图像中每个长 方形纸板位置的偏移量。
[0071] S223、把每一个长方形纸板距车载摄像机的实际距离和图像中每一个长方形纸板 位置的偏移量代入AZ1=W^AD1,得到对应的"blackbox"变量值W1,其中i= 1,2, 3,…, n〇
[0072] S224、依据目标实际距离、图像中目标位置的偏移量和"blackbox"变量之间的对 应关系,通过以下线性插值理论式,获取图像中每一个目标位置的偏移量对应的比例关系 系数:
[0074] 其中,W1为图像中当前目标位置的偏移量对应的比例关系系数,W1(]、W11为图像中 距离当前目标位置最近的上下两个长方形纸板位置的偏移量对应的比例关系系数,D,为图 像中当前目标位置的偏移量,D1。为图像中距离当前目标位置最近的上面那个长方形纸板位 置的偏移量,D为图像中距离当前目标位置最近的上下两个长方形纸板位置的偏移量之差。
[0075] S225、根据Zj=W'Dj,计算出图像中每一个位置的偏移量对应的实际距离,将对 应关系保存在目标位置深度表中。
[0076] S3、判断是否需要检测前方车辆,如果需要,进入步骤S4,否则,进入步骤S5。
[0077] S4、检测前方车辆,判断当前车道的正前方是否存在目标车辆,效果如图3所示, 具体步骤如下:
[0078] S41、基于步骤S2获得的车牌检测分类器,检测前方车道是否存在车牌,即车辆;
[0079] S42、判断获得的车辆是否位于当前车道,如果不在,视为无效车辆,如果在,视为 有效车辆;
[0080] S43、如果仅存在一个有效车辆,则将其作为目标车辆;如果存在多个有效车辆,选 择其车牌在图像中的位置距图像下边界距离最小的有效车辆作为最终的目标车辆。
[0081] S5、跟踪前方目标车辆,根据上一帧图像中的车牌位置,预测车牌在当前帧图像中 的位置,避免每一帧图像都进行重复的车牌检测定位,具体步骤如下:
[0082] S51、更新跟踪数据,主要是在上一帧图像中,保存车牌中心点作为跟踪目标点,并 将车牌位置区域向四周扩展后保存为当前帧图像的车牌模板;
[0083] S52、对目标点进行跟踪,主要基于kalman滤波器原理,预测车牌中心点在当前帧 图像中的位置;
[0084] S53、选择车牌搜索矩形区域,主要是基于预测的车牌中心点位置和上一帧图像中 的车牌尺寸,按照以下公式,获得当前帧图像中车牌的大致区域范围rect:
[0086] 其中,rect.x、rect.y分别表示当前帧图像中车牌搜索矩形区域rect的左上角横 坐标和纵坐标,center,x、center,y分别表示预测的车牌中心点在当前帧图像中的位置横 坐标和纵坐标,rect.width、rect.height分别表示rect的宽度和高度,car_width、car_ height分别表示上一帧图像中所获得的车牌的宽度和高度。
[0087] S54、精确定位车牌位置,主要方法是:在当前帧图像的车牌搜索矩形区域内,使用 车牌模板进行搜索遍历,每一个遍历位置,按照以下公式,计算该遍历位置属于车牌位置的 置信度,选择最大置信度对应的遍历位置作为当前帧图像中车牌的最优位置:
[0089] 其中,(^!!匕表示当前遍历位置属于车牌位置的置信度,N表示当前帧图像的车牌 模板的像素数量,M(x,y)表示车牌模板在像素(x,y)处的灰度值,f(i+x,j+y)表示在当前 帧图像的车牌搜索矩形区域内,以当前遍历位置左上角坐标(i,j)处为基准,偏移(x,y)处 的像素灰度值。
[0090] S6、获得目标车辆的偏移量,主要是获得当前帧图像中车牌中心点位置距图像下 边界的距离,具体步骤如下:
[0091] S61、按照以下公式,获得当前帧图像中车牌位置区域的二值化图像bin(x,y),效 果如图4所示:
[0093] 其中,f(x,y)是当前帧图像中车牌位置区域(x,y)处的像素灰度值,f(Xl,yi)是 以(x,y)为中心的N邻域内的像素灰度值,n是以(x,y)为中心的N邻域内的像素个数,T 是二值化阈值。
[0094] S62、形态学运算,去除面积较小的干扰。
[0095] S63、按照以下公式,获得当前帧图像中的车牌中心点位置center,效果如图5所 示:
[0097] 其中,center,x、center,y分别是当前帧图像中车牌中心点位置的横坐标和纵坐 标,Mn(Xpyi)是二值化图像中(Xyyi)处的像素灰度值。
[0098] S64、计算当前帧图像中车牌中心点位置距图像下边界的距离,作为当前帧图像中 目标车辆位置的偏移量。
[0099] S7、获得目标车辆的实际距离,具体步骤如下:
[0100] S71、依据步骤S64获得的目标车辆位置的偏移量,按照步骤S22获得的目标位置 深度表,
当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1