一种基于三维激光雷达的无人车路口检测方法与流程

文档序号:12729361阅读:553来源:国知局
一种基于三维激光雷达的无人车路口检测方法与流程

本发明涉及一种路口检测方法,尤其是涉及一种基于三维激光雷达的无人车路口检测方法。



背景技术:

随着计算机技术和人工智能的发展,无人驾驶汽车(以下简称无人车)在军事、交通、工业生产、物流仓储、日常生活等方面展现出巨大的应用前景。在国防军事方面,无人车多用于执行危险场景下的军事任务,如军事救援和物资输送等。在交通安全方面,无人驾驶技术是促进智能交通系统发展的有效手段,基于人工智能的无人驾驶技术可以提高车辆行驶的主动安全性,能够有效减少驾驶员由于误操作导致的交通事故,从而提高交通行驶效率和安全性。在工业生产、物流仓储方面,无人车可以配合自动化生产线实现全自主无人生产,进一步推进工业生产的自动化和智能化,进而提高生产效率。另外,无人车的出现也将极大地方便人们的工作、旅游等日常生活。

无人驾驶技术主要包括环境信息的感知,驾驶行为的智能决策,无碰撞路径的规划,以及车辆的运动控制等四个部分。环境感知是无人驾驶系统中的物理层,涉及到众多传感器,这些传感器用来获取车辆的外部数据和内部数据,外部数据主要有激光雷达和摄像机获取的车辆外部环境的点云和图像,内部数据包括车辆自身的速度、加速度、姿态信息等。各个传感器的数据传输接口与控制器相连接,并实时地将获取到的数据异步发送给控制器。控制器根据每个传感器的不同特点,将不同格式的数据包进行解析,获得传感器的原始数据,并将这些数据同步。环境感知层通过处理和融合各个传感器的原始数据,计算出当前无人车的准确位置和有效的环境信息:道路边界的位置、障碍物的位置、大小、速度等,并将这些信息传递给决策规划。

传统的环境感知技术多基于视觉感知,且大都假设无人车辆行驶于正常道路环境下,即没有复杂交叉路口场景,针对此类场景已有许多成熟的目标检测和路沿检测解决方案,主要有:可变形局部模型法、方向梯度直方图法、随机抽样一致性法、霍夫变换法等。正常道路场景虽然是无人驾驶车行驶环境中较为典型的一种,但是由于在复杂交叉路口场景下,对于保证无人驾驶车安全行驶具有极高的要求,要求在障碍物检测的基础上,还需要获取交叉路口每个分支准确的位置和方向信息。摄像机传感器容易受到光照因素的影响,可靠性无法得到保证,并且其视角狭小,无法覆盖整个交叉路口场景。同时,车辆定位会出现偏差,无法准确获取无人驾驶车辆的真实位置。



技术实现要素:

本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种可以在复杂交叉路口的环境下实现实时检测的基于三维激光雷达的无人车路口检测方法。

本发明的目的可以通过以下技术方案来实现:

一种基于三维激光雷达的无人车路口检测方法,该方法通过在无人车行驶过程中,激光雷达采集周围环境数据,并将数据输入支持向量机回归机,得到前方路口分支信息,所述的支持向量机回归机的训练过程包括以下步骤:

S1,对安装于无人车顶部的激光雷达进行安装误差矫正;

S2,无人车沿道路行驶,激光雷达对周围环境进行数据采集,得到点云数据,实时将各帧点云数据转换至当前的车辆坐标系下,并根据无人车的定位信息和已知地图数据,查找到无人车前方设定范围内的交叉路口节点;

S3,根据已知地图数据提供的路口的每个分支,分别对各分支的感兴趣区域进行栅格划分,获取每个栅格中的各点的高度,得到多帧高度信息图;

S4,将高度信息图中的像素点序列作为特征向量,将可表示分支地理位置和角度的特征作为输出,训练得到支持向量机回归机。

所述的安装误差矫正包括以下步骤:

S11,无人车停放在水平路面,激光雷达对路面进行数据采集,得到点云数据;

S12,对点云数据进行拟合得到平面参数,计算该平面与激光雷达坐标水平面之间的角度偏差;

S13,对角度偏差进行矫正。

所述的步骤S13中,矫正公式为:

Tss,θs,ψs)=Rzs)Rys)Rxs)

其中,Ts为变换矩阵,Rz、Rx、Ry分别为绕z轴、x轴、y轴的旋转矩阵,计算得到Ts后将其与点云数据相乘。

所述的步骤S3中,分支的感兴趣区域为:以路口中心点为原点,分支的延伸方向为长度方向即y轴,划定矩形区域,区域尺寸为30m x 40m。

所述的步骤S3中,各点的高度通过下式计算:

其中,Ei表示栅格中第i个点的高度值,在第i个栅格上,设置一个以第i个栅格为中心且位于栅格内的圆,所有落入该圆的点的个数为Ni,zi,j表示的是点的三维坐标中的z坐标即高度坐标,di,j为第i个点到圆心的欧式距离。

所述的各分支的特征包括:中心线与x轴夹角以及中心线与y轴交点的坐标值,所述的x轴正向为无人车右侧方向,所述的y轴正向为无人车车头方向。

所述的已知地图为OpenStreetMap。

与现有技术相比,本发明具有以下优点:

(1)采用了三维激光雷达传感器,能够检测大尺度复杂交叉路口环境。

(2)设计对不同类型路口的建模方法,能够有效地检测不同种类的路口,同时采用了多帧点云数据,因为不同线束的激光雷达,通过多帧点云数据的叠加,可以得到相同的环境信息使得本方法适用于不同种类的激光雷达,并且能够达到相同的检测效果。

(3)基于机器学习算法,在线检测路口位置和方向,实时性强,应用范围广,并且没有车型限制,无论在结构化的高速公路还是在非结构化的城市道路,都能够有效地进行检测。

(4)对各分支划定感兴趣区域,能够涵盖住每个分支。

(5)各点的高度计算方法中,根据距离来确定各点的权重,能够得到一个相对平滑的高度图。

(6)选择中心线与x轴夹角以及中心线与y轴交点的坐标值作为各分支的特征,通过这样对路口进行描述,可以为无人驾驶的路径导航系统提供必要的信息.

附图说明

图1为本实施例在线检测方法流程图;

图2(a)、2(b)为本实施例无人车坐标系示意图,其中2(a)为侧视图,2(b)为后视图;

图3(a)、3(b)为本实施例获取的点云数据图,其中3(a)为单帧,3(b)为多帧;

图4为本实施例的分支感兴趣区域示意图;

图5为本实施例的分支特征示意图;

图6(a)、6(b)为本实施例感兴趣区域的编码结果图,6(a)是提取出来的某个分支的点云图,6(b)是由6(a)生成的高度图。

具体实施方式

下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。

实施例

一种基于三维激光雷达的无人车路口检测方法,基于三维激光雷达用于交叉路口检测,利用了车辆位姿信息,将多帧点云数据从传感器坐标系转换到大地坐标系下,从而可以获取精确的三维场景点云图像。同时,结合离线地图路网信息,实时与自身无人驾驶车位置匹配,提取出车辆前方的路口及其分支路网作为先验数据,进而可以从三维点云图像中提取出每个分支的感兴趣区域。通过对每个感兴趣区域进行插值编码,获得关于地形高度的灰度图像,然后,对编码后的图像解算梯度,从而能够实现不同地形的高度不变性。在此基础上,利用机器学习算法,对梯度图像提取多个特征,可以识别出多种类型交叉路口每个分支的位置和方向。

该方法具体包括:通过在无人车行驶过程中,激光雷达采集周围环境数据,并将数据输入支持向量机回归机,得到前方路口分支信息,所述的支持向量机回归机的训练过程包括以下步骤:

S1,对安装于无人车顶部的激光雷达进行安装误差矫正,包括以下步骤:

S11,无人车停放在水平路面,激光雷达对路面进行数据采集,得到点云数据;

S12,对点云数据进行拟合得到平面参数,计算该平面与激光雷达坐标水平面之间的角度偏差;若没有安装误差,则z=0平面是与地面平行的。

S13,对角度偏差进行矫正,矫正公式为:

Tss,θs,ψs)=Rzs)Rys)Rxs)

其中,Ts为变换矩阵,Rz、Rx、Ry分别为绕z轴、x轴、y轴的旋转矩阵,计算得到Ts后将其与点云数据相乘。

S2,无人车沿道路行驶,激光雷达对周围环境进行数据采集,得到点云数据,实时将各帧点云数据转换至当前的车辆坐标系下,并根据无人车的定位信息和OpenStreetMap数据,查找到无人车20m范围内的交叉路口节点。

S3,根据OpenStreetMap数据提供的路口的每个分支,分别对各分支的感兴趣区域进行栅格划分,获取每个栅格中的各点的高度,得到多帧高度信息图;如图4所示,分支的感兴趣区域为:以路口中心点为原点,分支的延伸方向为长度方向即y轴,划定矩形区域,区域尺寸为30m x 40m,各点的高度通过下式计算:

其中,Ei表示栅格中第i个点的高度值,在第i个栅格上,设置一个以第i个栅格为中心且位于栅格内的圆,所有落入该圆的点的个数为Ni,zi,j表示的是点的三维坐标中的z坐标即高度坐标,di,j为第i个点到圆心的欧式距离。

S4,将高度信息图中的像素点序列作为特征向量,将可表示分支地理位置和角度的特征作为输出,训练得到支持向量机回归机,各分支的特征包括:中心线与x轴夹角以及中心线与y轴交点的坐标值,所述的x轴正向为无人车右侧方向,所述的y轴正向为无人车车头方向。

如图1所示,具体步骤如下:

1.传感器标定与矫正

如图2(a)、2(b)所示,因为32线激光雷达安装于无人车顶部,存在一定的安装误差,本专利利用了一种平面拟合算法获得了安装误差的欧拉角。利用如下公式进行矫正:

Tss,θs,ψs)=Rzs)Rys)Rxs)

式中的φss,分别表示激光雷达传感器与地平面的夹角(俯仰角,横滚角,偏航角),通过将汽车停靠在开阔的平面区域上,采集激光雷达返回的点云数据,利用最小二乘法拟合得到平面的参数,计算与“z=0”这个平面的夹角,可以得到上述参数。点云数据表示的是,所有激光发射后,遇到最近的物体表面返回后得到的所有点的坐标。

另外,激光点云的密度随着探测距离的增加而减少,然后在车辆的运动过程中,通过多帧点云能够提供一个精细的环境地图。由于车辆是在运动的,其车辆坐标系一直在不断发生改变,因此利用坐标系平移和旋转公式,能够得到在统一坐标系下的激光点云。旋转角度和平移大小数据通过车载的惯性导航系统可以直接测量得到。如图3(a)、3(b)所示,为获取的点云数据图,其中3(a)为单帧,3(b)为多帧。

2.感兴趣区域的生成和编码

在本实施例中,使用了OpenStreetMap来提供先验信息,利用GPS提供的粗糙的位置信息,筛选出位于车辆前20m范围内的交叉路口点。根据地图中提供的路口每个分支的方向,从上述生成的多帧点云中提取出多个区域。利用栅格图加权插值方法得到多幅描述高度信息的图片。

具体方法:提取出的每个分支的区域大小为40x30m,然后对每个区域创建一个40x30大小的栅格图,栅格中每个元素的值按照下述公式计算:

Ei表示栅格中第i个点的值(高度),Ni是指在第i个栅格上,设置一个以第i个栅格为中心,半径为2m的圆,所有落入该圆的点的个数为Ni,zi,j表示的是点的三维坐标中的z坐标(高度),di,j指的该点到圆中心的欧式距离。

通过上式计算得到栅格中所有元素的值(高度),这个过程称为编码,得到的栅格图也就是如图6(a)、6(b)所示的高度信息图。

3.支持向量回归机训练和预测。

得到上述编码后的高度信息图片后,将其中包含的每个像素点进行排列,得到一个向量特征。通过设计了两个支持向量回归机模型,利用手动标注的样本进行训练,得到了模型中的多个最优参数,在实时检测中,将编码后的图片输入到两个自动向量回归机中,就能实时检测出路口的位置和方向。两个模型的形式是一样的,两个模型的输入都为:之前编码后的栅格图中所有元素排列后的一维向量(1x1200),如图5所示,第一个模型的输出为dloc,第二个模型的输出为θori。自动向量回归机模型如下:

模型中的X表示输入,Y表示输出,ω是模型的权重参数,C是一个常数,用于改变J中前一项和后一项的所占比重,ξ,ξ*是松弛变量,υ参数用来控制支持向量的个数,ε也是一个参数,需要根据数据训练获得,J是一个代价函数,通过数据训练的方式使得J最小,从而得到模型的参数。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1