本发明涉及汽车制造技术领域,尤其是一种汽车自动驾驶的目标识别方法。
背景技术:
对车辆周边目标物的实时识别和定位的准确性对于智能自动驾驶的行车安全至关重要。现有的一种自动驾驶采用的是:在无人驾驶的汽车上设置实时摄取图像信息,并将该图像信息传递给处理器处理的单目摄像头;处理器对单目摄像头反馈的图像信息与其内预置的目标特征进行匹配,然后认定匹配值大于一定阈值的部分是目标信息的目标特征匹配的方法对车辆周边目标物进行识别。然而实际应用中,由于单目摄像头的分辨率低、识别能力有限,一方面,如果碰到车辆尾灯破损、光线问题导致车辆底部阴影缩小、车道线由于年久失修导致不清晰等情形,就会造成特征匹配失败的问题;另一方面驾驶过程中如碰到浓雾天、雾霾天、逆光等的恶劣环境工况,也会导致高级驾驶辅助系统的相关功能稳定性降低的问题。
技术实现要素:
本发明提供一种自动驾驶目标识别方法,该方法可以解决现有自动驾驶目标识别存在的对车辆周边目标物进行识别的分辨率低、识别能力有限的问题。
为了解决上述问题,本发明所采用的技术方案是:这种自动驾驶目标识别方法,包括装在车辆上用于摄取车辆周边图像的双目摄像头,以及接收和处理双目摄像头信息的处理器;
其目标识别的方法是:
首先,所述处理器将所述双目摄像头针对同一目标输入的各单个图像信息经过nsct变换分解后的低频子带系数和高频子带系数进行融合,获得低频融合子带系数和高频融合子带系数,再通过逆nsct变换得到融合图像;然后采用gabor算法对融合图像进行局部特征的提取,并将提取的局部特征信息输入至通过监督自学习的运算训练完成的神经网络中,然后分类输出给执行器。
上述技术方案中,更具体的技术方案还可以是:所述双目摄像头包括红外感知摄像头和可见光感知摄像头;所述单个图像信息包括红外感知图像信息和可见光感知图像信息。
进一步的:所述低频融合子带系数的计算式是:lf=(1-λ)la+λlb(1)
式中lf为低频融合子带系数,λ为感知图像的信息量,la为红外低频子带系数,lb为可见光低频子带系数;
所述高频融合子带系数的计算式是:
式中,
进一步的:所述局部特征提取的计算式是:
式中guv(x,y)为gabor局部特征提取核函数值,
进一步的:所述神经网络监督自学习的运算训练方法是,首先通过自动驾驶的路试采集含有各目标局部特征的训练集与样本集,然后将训练集输入神经网络,由损失函数监督自学习,不断地迭代卷积层和池化层,直到其输出值与样本集对比的差值最小,即完成;
其中:卷积层的计算式为:
式中
池化层的计算式为:
式中
损失函数的计算式为:
(5)式中
(6)式中tθ(x)为拟合函数,
对损失函数求偏导,
进一步的:从所述神经网络输出的局部特征信息经过softmax分类器分类输出给所述执行器。
由于采用了上述技术方案,本发明与现有技术相比具有如下有益效果:
1、由于采用了双目摄像头,并且对双目摄像头获取的图像信息经过nsct变换分解后的低频子带系数和高频子带系数进行融合,获得低频融合子带系数和高频融合子带系数,再通过逆nsct变换得到融合图像,其中低频子带系数的选取能使图像的轮廓更清晰,高频子带系数的选取能使图像纹理更清晰,进而提高了感知系统的识别能力,因此最终的融合结果使得自动驾驶对目标物的识别能适应恶劣环境工况,进而提高了高级驾驶辅助系统的相关功能的稳定性。
2、由于采用了(1)式,正常环境中,可见光传感器反馈的图像信息量大,低频子带融合时,可见光低频子带占比高;当处于恶劣环境时,由于大雾、逆光等导致可见光传感器反馈的图像信息量降低,低频子带融合时,红外低频子带占比升高。通过式(1)对低频子带进行融合;当环境较好时,红外摄像头能辅助可见光摄像头,进一步提高感知端的分辨率与识别能力;当处于大雾、逆光等恶劣环境时,红外摄像头能弥补可见光摄像头的不足,提高感知端的识别能力,且能较好地提高高级驾驶辅助系统功能的适应范围,进而提高车辆在恶劣环境下行驶的安全性。
3、由于采用了(2)式,可充分保留感知图像中的细节纹理信息。
4、本方法经过gabor局部特征的提取,可较好地提取目标的纹理特征如目标轮廓边缘信息等。
5、由于提取的局部特征信息输入至通过监督自学习的运算训练完成的神经网络中,充分利用了神经网络对图像识别上的优势,而采用提取好的局部特征作为神经网络的输入能大幅提高神经网络的识别能力、降低神经网络的运算成本。
附图说明
图1是本发明实施例双目摄像头在车辆上的安装位置示意图。
图2本发明实施例的双目摄像头信息处理图。
具体实施方式
下面结合附图实施例对本发明作进一步详述:
图1所示,在车辆内后视镜下方前挡风玻璃靠近车辆顶棚边沿处分别装有用于摄取车辆周边图像的双目摄像头1,以及接收和处理双目摄像头信息的处理器2;双目摄像头1通过线路将双目摄像头信息输入处理器2中;双目摄像头1包括红外感知摄像头和可见光感知摄像头;
图2所示,本自动驾驶目标识别的方法是:
首先,所述处理器将双目摄像头针对同一目标输入的各单个图像信息,即红外感知摄像头输入的红外感知图像信息和可见光感知摄像头输入的可见光感知图像信息,分别经过nsct变换分解后获得用于反映图像轮廓特征的感知图像近似分量的红外感知图像的低频子带系数和可见光感知图像的低频子带系数,以及用于尽可能保留图像清晰细节的反映图像细节信息的红外感知图像的高频子带系数和可见光感知图像的高频子带系数,并分别进行融合,即低频子带系数融合采用低频融合方法,高频子带系数融合采用高频融合方法,以此获得低频融合子带系数和高频融合子带系数,再通过逆nsct变换得到融合图像;然后采用gabor算法对融合图像进行局部特征的提取,并将提取的局部特征信息输入至通过监督自学习的运算训练完成的神经网络中,从神经网络输出的局部特征信息经过softmax分类器分类输出给执行器(未画出);
其中:低频融合子带系数的计算式是:lf=(1-λ)la+λlb,(1)
式中lf为低频融合子带系数,λ为感知图像的信息量,la为红外低频子带系数,lb为可见光低频子带系数;
高频融合子带系数的计算式是:
式中,
局部特征提取的计算式是:
式中guv(x,y)为gabor局部特征提取核函数值,
神经网络监督自学习的运算训练方法是,首先通过自动驾驶的路试采集含有各目标局部特征的训练集与样本集,然后将训练集输入神经网络,由损失函数监督自学习,不断地通过上一层的输出即当前层的输入、由卷积层的计算式计算出当前层的输出的方式迭代卷积层和池化层,直到其输出值与样本集对比的差值最小,即完成;
其中:卷积层的计算式为:
式中
池化层的计算式为:
式中
损失函数的计算式为:
(5)式中
(6)式中tθ(x)为拟合函数,
对损失函数求偏导,
本方法可在大雾、逆光等恶劣环境中相互辅助图像信息的采集,使图像的轮廓和纹理更清晰,进一步提高了感知端的分辨率与识别能力,使得自动驾驶对目标物的识别能适应恶劣环境工况,进而提高了高级驾驶辅助系统的相关功能的稳定性。