一种铁轨表面缺陷语义分割方法

文档序号:25427567发布日期:2021-06-11 21:41阅读:191来源:国知局
一种铁轨表面缺陷语义分割方法

本发明属于图像数据加密领域,具体涉及一种铁轨表面缺陷语义分割方法。



背景技术:

随着我国铁路运输的飞速发展,铁路铺设网不断增大,列车的频次、速度与客流、运输量不断增加,铁轨的质量需要更加严格的保证。目前,铁轨的质量检测与养护工作是由工人进行巡检,通过人眼观测完成,但这样的方式会损耗大量的人力,当工作负荷过高、观测环境不好时,也会造成误判漏判,难以保证其检测效率。

由于铁轨表面缺陷与完整表面区分度低,且缺陷形状种类多样,细节较多,主流的语义分割模型在该场景下表现不佳。为了满足该场景的应用需求,需要提升模型的泛化性能与分割精确度。

所以需要一个新的技术方案来解决上述问题。



技术实现要素:

发明目的:为了克服现有技术中存在的不足,提供一种铁轨表面缺陷语义分割方法,该方法应用于铁轨表面缺陷检测,不但检测速度快,能够做到实时检测,同时有较高的检测精度,满足检测需求;也能够应用于恶劣环境下的生产任务,为铁轨的质量检测提供自动化方案,且能节省铁路养护所消耗的人力物力,具有较高的社会效益与经济效益。

技术方案:为实现上述目的,本发明提供一种铁轨表面缺陷语义分割方法,包括如下步骤:

s1:采集样本图像,制作相应样本集;

s2:建立卷积神经网络,所述卷积神经网络包括unet++网络结构和eca注意力模块,所述unet++网络结构用于下采样与上采样,所述eca注意力模块用于信道交互;

s3:将建立好的样本集输入卷积神经网络(语义分割模型),对模型内的权重参数进行训练更新,直到模型的损失函数不再继续收敛,得到训练好的模型;

s4:将采集得到的铁轨表面缺陷图像输入步骤s3中训练好的模型,得到语义分割结果。

进一步地,所述步骤s1中样本集中包括对应标签,所述标签指代每个像素点的类别,缺陷目标与背景的像素点采用不同标签。

进一步地,所述步骤s2中unet++网络结构包括多个下采样层与上采样层。

进一步地,所述步骤s2中eca注意力模块采用了一种不降维的局部跨信道交互方法。

进一步地,所述步骤s3中语义分割模型对于输入样本集的处理具体为:

a1:将样本图像输入网络模型进行编码与解码操作;

a2:在卷积层中,对不同尺度的图像进行编码下采样,得到不同尺度的特征图;

a3:在上采样层中,对步骤a2得到的特征图进行解码;

a4:在eca注意力模块中,对解码后的特征图进行信道交互,训练通道注意力。

进一步地,所述步骤s3中损失函数采用log-coshdice损失函数,具体为:

a与b代表预测区域与真实区域,dsc代表区域间的dice损失,则:

cosh函数为:

其中,ex和e-x代表与自然对数相关的指数函数;

则损失函数为:

loss=log(cosh(dsc))。

该损失函数保证了其非凸性,能提升模型训练收敛的稳定性,增加细节的精确度。

进一步地,所述步骤s4中语义分割结果用二值化图像标记分割结果。

本发明采用unet++的四层网络结构作为基础架构,保证模型的轻量化,提升检测效率,同时又能避免过收敛现象;引入eca注意力模块,提升小物体与目标细节的分割精度;logcoshdice函数可以在细节区域保持自身的非凸性,提升收敛的稳定性。

有益效果:本发明与现有技术相比,具备如下优点:

1、本发明方法将复合卷积神经网络应用到铁轨表面缺陷检测,不但能够提升目标检测、图像像素级分割效果,而且能减少铁路维护工作对人力物力的损耗,保障铁路的安全工作。

2、本发明研究设计了一种以unet++和eca注意力模块为主体的图像语义分割算法,既保证了模型的检测速度与泛化性能,又借助eca注意力模块提升了模型对目标细节的分割精度。

3、本发明研究使用了一种对数损失函数。该损失函数能保证损失函数的非凸性,提升模型训练收敛的稳定性,完成对小物体目标的精确分割。

附图说明

图1是unet++基本网络结构示意图;

图2是eca模块在unet++网络中的连接方式示意图;

图3是eca模块内部结构示意图;

图4是语义分割模型的训练流程图;

图5为原始输入图像;

图6为输出图像。

具体实施方式

下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。

本发明提供一种铁轨表面缺陷语义分割方法,包括如下步骤:

s1:采集样本图像,制作相应样本集;样本集中包括对应标签,标签指代每个像素点的类别,缺陷目标与背景的像素点采用不同标签。

s2:建立卷积神经网络,卷积神经网络包括unet++网络结构和eca注意力模块,unet++网络结构包括多个下采样层与上采样层,eca注意力模块采用了一种不降维的局部跨信道交互方法;

本实施例中unet++网络的结构具体如图1所示,为了避免图像信息在编码与解码的过程中损失过多,u-net++采用跳跃连接(skipconnection),用叠操作(cencatenation)将不同维度度的特征进行拼接与融合,来保证上采样恢复出的图像能保留更加精细的特征。同时为了灵活学习不同深度特征的重要性,unet++模型引入了深监督(deepsupervision)与模型剪枝。具体的,unet++模型在长连接之外与不同深度加入了短连接分支,在然后每个分支后加入一个1×1的卷积核,监督其输出;在训练模型的每个验证阶段监督每个不同深度的子网络的分割表现,然后判断选取何等深度的子网络。

在卷积神经网络模型中,层层卷积能够提取高等的特征,但也会弱化关键的信息。将训练学习的重点集中在关键信息上,能够更有效率地获得有效信息。如图2所示,本实施例中unet++网络在每个下采样后都有一个上采样分支,然后将每个上采样分支之后的特征与同层其他分支进行特征拼接,本算法则在每次特征拼接后连接eca注意力模块,用以提高模型的注意力,实现更加精确的像素分类。

如图3所示,本实施例中eca注意力模块采用了一种不降维的局部跨信道交互方法,该方法能够经由一维卷积有效地完成,同时又使用了一种自适应选取一维卷积核尺寸的策略,从而保证局部跨信道交互方法的覆盖程度。每个通道的注意力预测是通过大小为k的快速一维卷积来实现的,在深层的cnn模型中,这类计算增加的计算量几乎是可以忽略的。

s3:将建立好的样本集输入语义分割模型(卷积神经网络),对模型内的权重参数进行训练更新,直到模型的损失函数不再继续收敛,得到训练好的模型;

参照图4,语义分割模型对于输入样本集的处理具体为:

a1:将样本图像输入网络模型进行编码与解码操作;

a2:在卷积层中,对不同尺度的图像进行编码下采样,得到不同尺度的特征图;

a3:在上采样层中,对步骤a2得到的特征图进行解码;

a4:在eca注意力模块中,对解码后的特征图进行信道交互,训练通道注意力。

损失函数采用log-coshdice损失函数,将cosh函数与对数函数合并。dice损失函数表示两个轮廓的相似程度,是衡量分割准确度的正确指标。但dice损失函数是非凸的,其梯度变化不稳定,识别小目标时若有一部分像素预测错误,则会导致梯度的剧烈变化,导致训练困难。log-coshdice能使损失函数变为凸函数,令损失函数变得平滑,回归更加精细,提升小缺陷的分割精确度。

本实施例中log-coshdice损失函数具体为:

a与b代表预测区域与真实区域,dsc代表区域间的dice损失,则:

cosh函数为:

则损失函数为:

loss=log(cosh(dsc))。

s4:将采集得到的铁轨表面缺陷图像输入训练好的模型,得到语义分割结果。语义分割结果用二值化图像标记分割结果。

本实施例中将图5所示的原始图像输入到步骤s4中的模型当中,输入图像经过模型的下采样提取特征,为了获得更精细的分类结果,再通过上采样与特征拼接得到分割后的图形,输出图像具体如图6所示,输出图像中,不同大小的像素值代表不同的目标区域。

结合上述方法过程,本发明涉及的基于卷积神经网络的图像分割算法核心思路是基于编码与解码(encoder-decoder)的拓扑结构,具体体现则是上采样与下采样过程。在下采样的过程中,原始图像会被加入微小的扰动,提升模型的鲁棒性,同时也会提取出高级的特征,提升感受野的大小。而上采样实际上就是从抽象特征还原分类原始图像的过程。在卷积网络中的浅层部分,图像会被提取出类似边缘、颜色的浅层特征,而高层抽象的特征能表示出图像的语义信息。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1