基于信息增益和LightGBM模型的汽车故障预测方法与流程

文档序号:19157089发布日期:2019-11-16 00:57阅读:1178来源:国知局
基于信息增益和LightGBM模型的汽车故障预测方法与流程

本发明涉及的是一种汽车制造领域的技术,具体是一种基于信息增益和lightgbm模型的汽车故障预测方法。



背景技术:

汽车故障预测是指对于收集到的汽车故障数据集,建立机器学习模型,从而预测新的样本所属的类别,即故障或正常,从而对有故障的汽车及时进行检修,将汽车故障引起的交通事故防患于未然。

收集到的汽车故障数据集常呈现出特征维度高、类别不平衡的特点,而现有的汽车故障预测方法大多忽视了这两个特点,导致故障查全率较低。如何准确地量化特征与与类别的相关性以剔除掉不相关的特征,并增强对类别不平衡数据集的预测能力,是汽车故障预测中亟待解决的问题。



技术实现要素:

本发明针对现有方法的不足,提出一种基于信息增益和lightgbm模型的汽车故障预测方法,使用信息增益衡量特征与与类别的相关性,进而剔除了不相关的特征;针对类别不平衡问题,建立了带有类别权重和l1、l2正则化项的lightgbm不平衡分类模型,提高了对故障的查全率。

本发明是通过以下技术方案实现的:

本发明涉及一种基于信息增益和lightgbm模型的汽车故障预测方法,以信息增益值作为评价指标度量特征与类别间的相关程度进行特征选择和训练样本的生成,使用训练样本对lightgbm不平衡分类模型训练后,进一步采用分步网格搜索优化模型参数并将优化后的模型用于汽车故障预测。

所述的信息增益(informationgain,ig)是指:某特征所提供的类别可分性的信息,定义为先验熵h(f)与后验熵h(f|y)的差值:ig(f;y)=h(f)-h(f|y),其中:特征f的先验熵h(f)=-∑ip(fi)log2(p(fi)),其中:p(f)为特征f的概率密度函数;特征f对类别y的后验熵h(f|y)=-∑jp(yj)∑ip(fi|yj)log2(p(fi|yj)),其中:p(f|y)为特征f对类别y的条件概率密度函数。

所述的特征是指:样本在某方面的性质,包括但不限于汽车的速度、行驶里程等。

所述的类别是指:样本所属的类别,在汽车故障预测中类别为发生故障或状态正常。

所述的特征选择是指:计算出各特征的信息增益后,对各特征的信息增益按照从大到小进行降序排列,从而剔除掉排名靠后的特征,使用余下的特征送入模型进行训练。

所述的lightgbm不平衡分类模型是指:以决策树为基学习器的集成学习模型,通过使用直方图算法寻找决策树的最佳分裂结点,并使用带深度限制的叶子生长策略分裂结点,该模型在损失函数中引入了类别权重和l1、l2正则化项,具体为:修正损失函数其中:类别权重系数出于放大少数类损失的目的,将少数类权重系数γ设置为一个大于1的整数,初始状态下设置为10,是单棵决策树对样本类别yi和预测类别的损失函数,α||ω||1为l1正则化项,为l2正则化项,ω为决策树的参数,在模型训练过程将由决策树算法自动设定,α、β为正则化项系数,初始状态下均设置为0.1。

所述的损失函数是指在模型训练过程中量化模型的预测类别与真实类别之间的差异的函数。对于标准的lightgbm模型,其损失函数为:yi为该样本的类别,为单棵决策树对第i个样本的预测类别,是单棵决策树对样本类别yi和预测类别的损失函数。

所述的lightgbm不平衡分类模型中的类别权重是为数据集中的少数类(有故障)样本、多数类(无故障)样本设置不同的重要性,使得少数类样本在模型训练过程中更为重要,达到放大少数类样本损失的目的,加强对少数类的学习。

所述的lightgbm不平衡分类模型中的l1正则化倾向于使得模型参数尽量稀疏,即非零分量个数尽量少,l2正则化倾向于使得模型参数尽量均衡,即非0参数个数尽量稠密。为了避免仅适用l1正则化使模型参数过于系数或仅适用l2正则化使模型参数过于稠密,因而在损失函数中同时引入l1、l2两个正则化项,以有效地控制模型复杂程度。

所述的lightgbm不平衡分类模型训练是指:模型的损失函数最小化的过程。对样本数量为m、特征维度为n的数据集d={(xi,yi)},其中:xi为第i个样本,yi为该样本的类别,yi=0为多数类(无故障),yi=1为少数类(有故障),在训练集上使用本发明的lightgbm模型训练时,以损失函数最小为目标进行迭代。

所述的分步网格搜索是指:先使用较广的搜索范围和较大的步长,寻找全局最优值,即l1正则化项系数α、l2正则化项系数β、少数类权重系数γ可能的位置,然后逐渐缩小搜索范围和步长,来寻找更精确的最优值。

本发明进一步优选在测试集上使用查全率评价预测性能,该查全率是指故障被机器模型能够成功预测到的概率,即其反映了模型对汽车故障样本的预测能力,其中:tp为被正确分类为有故障的样本数,即有故障的样本被成功预测为有故障;fp为被错误分类为有故障的样本数,即无故障的样本被误认为有故障;tn为被正确分类为无故障的样本数,即无故障的样本被成功预测为无故障;fn为被错误分类为无故障的样本数,即有故障的样本被误认为无故障。

技术效果

与现有技术相比,本发明使用信息增益评价特征与类别间的相关性,有效降低了特征维度;本发明建立了带有类别权重和l1、l2正则化项的lightgbm不平衡分类模型,并使用分步网格搜索给出参数的最优取值,提升模型效率的同时提高了故障查全率,从而增强了对汽车故障的预测能力。

附图说明

图1为本发明流程示意图;

图2为实施例中缺失值比例最高的20个特征的柱状图;

图3为实施例中信息增益最小的20个特征的柱状图。

具体实施方式

如图1所示,本实施例以斯堪尼亚卡车汽车故障预测数据集为例进行说明,具体包括以下步骤:

步骤1、读取数据:本实施例所采用的数据集特征维度为170维,记录了汽车速度、行驶里程、档位等信息。数据集共有60000个训练样本和16000个测试样本,各样本类别为有故障或无故障。其中在训练集的60000个样本中,有59000个样本的类别为无故障,仅有1000个样本的类别为有故障。

步骤2、用中位数补全缺失值:统计数据集中各特征的缺失值比例,缺失值比例最高的20个特征如图2所示,可见数据集中存在大量的缺失值,本发明使用各特征的中位数补全缺失值。

步骤3、类别编码:将类别编码为0、1,将无故障样本的类别编码为0,将有故障样本的类别编码为1。

步骤4、使用信息增益选择特征:使用信息增益ig统计各特征的重要程度,信息增益最小的20个特征如图3所示。考虑到信息增益小的特征所提供的类别可分性信息较少,本实施例中剔除掉信息增益最小的20个特征,使用余下的150个特征作为模型的训练样本。

步骤5、对带有类别权重和l1、l2正则化项的lightgbm不平衡分类模型进行训练:在训练集上,使用本方法所提出的带有类别权重和l1、l2正则化项的lightgbm不平衡分类模型作为学习器,按照5折交叉验证的方式训练模型。

步骤6、分步网格搜索优化:使用分步网格搜索的方法调整lightgbm不平衡分类模型的l1正则化项系数α、l2正则化项系数β、少数类权重系数γ等3个参数。

本实施例经上述优化后得到的参数为:α=0.01,β=0.005,γ=55。

步骤7、预测测试集样本类别:在测试集上使用训练好的lightgbm机器学习模型,预测16000个测试集样本的类别。

本实施例中对每个样本的分类阈值设置为0.05。

步骤8、模型评估:在测试集上通过混淆矩阵计算查全率。

表1混淆矩阵

根据表1可见,测试集中实际上共有375个样本的类别为有故障,本方法从中成功预测出了365个故障样本,对故障样本的查全率达97.33%,很好地完成了对汽车故障的预测。

为了进一步说明本方法的有效性,使用传统的gbm机器学习方法作为对比,分别计算各自的故障查全率recall,并记录各方法的模型训练时间,以评价各方法的预测性能。本方法所得结果与gbm机器学习方法比较如表2所示。

表2本方法与gbm方法的结果对比

根据表2可见,本方法很好实现了预期的发明目的,故障查全率达97.3%,相比传统的gbm方法提高30.1%,增强了对汽车故障的预测能力;另一方面,本方法相比传统的gbm方法,大幅度降低了模型训练时长,提高了使用机器学习技术预测汽车故障的建模效率,降低了计算成本。

上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1