一种基于小波包分解和深度学习的刀具磨损实时预测方法与流程

文档序号:22678591发布日期:2020-10-28 12:36阅读:217来源:国知局
一种基于小波包分解和深度学习的刀具磨损实时预测方法与流程

本发明属于刀具状态监测相关技术领域,更具体地,涉及一种基于小波包分解和深度学习的刀具磨损实时预测方法。



背景技术:

刀具磨损状态将会直接影响加工工件表面质量,进而影响工件的良率,长期使用过度磨损状态下的刀具将会极大地影响机床的主轴精度,导致机床需要长时间停机检修。根据相关调研,通过对机床刀具状态进行准确监测,加工过程中机床主轴转速可以提高10%到50%,降低20%机床停机时间,工厂可以节省10%到40%的总成本,因此,刀具状态检测系统具有良好的市场前景。

目前,市场上的主流方法是采用数据驱动的模型来实现刀具磨损实时预测,传统的数据驱动的模型主要是从采集的信号中提取与刀具磨损状态密切相关的敏感特征,然后建立回归模型,并通过后续的模型训练确定这些敏感特征与刀具磨损量之间的关系,从而实现对刀具磨损的准确预测。虽然小波包分解在刀具磨损实时预测方法中已经广泛应用,基于小波包分解实现刀具磨损预测的方法通常是从分解出的各级小波包系数中提取相关的能量特征。但是这类方法具有很大的弊端,敏感特征的提取需要大量的专业知识和特征提取实践经验,而且特征提取过程费时费力,所建立的模型结构较为简单,泛化能力有限,预测结果容易受到外界干扰,导致模型的适用性受限。



技术实现要素:

针对现有技术的以上缺陷或改进需求,本发明提供了一种基于小波包分解和深度学习的刀具磨损实时预测方法,所述预测方法将待分析信号的最后一层的多个小波包系数变换成二维矩阵并作为模型的输入,针对每一个小波包系数二维矩阵建立对应的小波包系数自适应特征提取模型块,然后对所提取的特征进行融合,建立线性回归层,进而实现刀具磨损实时预测。同时,所述预测方法采用prelu作为数学模型激活函数,采用adam算法作为模型优化算法,采用监督式学习方法,通过分析加工过程中机床产生的相关信号,建立起目标信号与刀具磨损量之间的关系,从而解决刀具磨损实时预测困难这一问题。

为实现上述目的,按照本发明的一个方面,提供了一种基于小波包分解和深度学习的刀具磨损实时预测方法,所述预测方法包括以下步骤:

(1)同步采集工件加工过程中的各类传感器信号,并选取加工过程中稳定的信号段作为待分析的信号段,同时扩充待分析信号样本以增加样本量;对待分析信号进行小波包分解变换,以得到多个小波包系数二维矩阵;

(2)每个小波包系数二维矩阵对应都作为一个特征提取cnn模型块的输入,并将每个特征提取cnn模型块输出的一维特征矩阵拼接成更长的一维矩阵,进而进行特征融合并建立两层全连接网络,由此得到卷积神经网络模型;

(3)将待分析的信号数据输入到所述卷积神经网络模型中,以实时预测刀具的磨损量。

进一步地,在主轴及工作台上分别安装三向加速度传感器,并安装麦克风传感器,以同步采集工件加工过程中的各类传感器信号。

进一步地,所述传感器信号包括振动信号及麦克风信号。

进一步地,该特征提取cnn模型块由一个卷积核为3×3的卷积层、一个最大池化层、以及若干个特征提取cnn子块组成。

进一步地,每个特征提取cnn子块由两个卷积层和一个最大池化层组成。

进一步地,特征提取cnn模型块的数量为2个,该特征提取cnn模型块的最后一个最大池化层被替换为全局均值池化。

进一步地,所述卷积神经网络模型中所有的权值矩阵的初始化方法为“xavier”初始化;卷积神经网络模型采用adam优化算法对卷积神经网络模型的超参数进行优化。

进一步地,所述卷积神经网络模型的损失函数l设置为均方误差函数,具体为:

式中,y’为卷积神经网络模型的刀具磨损预测值;y为实际磨损测量值;n为待测试样本数量。

总体而言,通过本发明所构思的以上技术方案与现有技术相比,本发明提供的基于小波包分解和深度学习的刀具磨损实时预测方法主要具有以下有益效果:

1.本发明基于小波包分解和卷积神经网络,提出了一种新的用于刀具磨损值预测的深度神经网络结构,能够充分挖掘出振动信号和麦克风信号等目标信号内在的诸多与刀具磨损相关的敏感特征,而不需要预先提取任何特征,同时还具有较强的泛化能力。

2.本发明不需要相关的工程人员预先掌握大量的专业知识,省去了繁杂的信号提取和筛选过程,从而大幅度地降低了应用门槛。

3.本发明提出了一种通过快速分析加工过程中相关的信号实现刀具磨损量有效实时预测的方案,为企业高效科学换刀提供了有力的工具,借助本发明的方案,企业能够提高车间的信息化水平,大幅度地减少机床的停机时间,从而极大降低生产成本。

附图说明

图1是本发明提供的基于小波包分解和深度学习的刀具磨损实时预测方法的流程示意图;

图2是各种传感器的安装示意图;

图3是数据预处理的示意图;

图4是特征提取cnn模型块的结构示意图;

图5是卷积神经网络模型的结构示意图;

图6是本发明得到的预测结果与实际结果的对比示意图。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。

请参阅图1、图2、图3及图4,本发明提供的基于小波包分解和深度学习的刀具磨损实时预测方法,所述实时预测方法主要包括以下步骤:

s1数据采集、存储与预处理。具体地包括以下子步骤:

s11,在主轴及工作台上分别安装三向加速度传感器,并安装麦克风传感器,以同步采集工件加工过程中的各类传感器信号。所述传感器信号包括声发射信号、麦克风信号及振动信号。本实施方式采用的铣削方式为顺铣,加工参数如表1所示:

表1加工参数

s12,对采集到的传感器信号进行必要的降噪处理,并选取加工过程中稳定的信号段作为待分析的信号段,适当扩充待分析信号样本以增加样本量。同时还将样本划分为训练集、验证集和测试集,其中,待分析信号段的长度为4096,采用平均样本增加算法来增加样本量,具体为:

a=(l-l)×k/t,k∈{0,1,...,t-1

式中,第k个样本从a点开始,l代表信号长度,l代表小样本长度,t表示样本增加倍数,且t∈n+。本实施方式以主轴处传感器y向振动信号为例,其他信号依次类推。

s13,对待分析信号进行小波包分解变换,取最后一层分解结果,以得到多个小波包系数矩阵。本实施方式采用db3小波对待测信号进行3层分解,取最后一层分解结果,获得了8个小波包系数矩阵,每个小波包系数矩阵适当删去首尾部分数据后都折叠成32×32矩阵。

s2构建卷积神经网络模型,并对该卷积神经网络模型进行训练。具体地包括以下子步骤:

s21,每个小波包系数二维矩阵对应都作为一个特征提取cnn模型块的输入。该特征提取cnn模型块由一个卷积核为3×3的卷积层,一个最大池化层,以及若干个特征提取cnn子块组成,结果最终会“压平”成一维矩阵。每个特征提取cnn子块由两个卷积层和一个最大池化层组成。所有的卷积层卷积核数量为128,卷积核尺寸为3×3,步长为1×1;最大池化层的池化核尺寸为3×3,步长为2×2。

本实施方式中特征提取cnn模型块的数量确定为2个;为了减少网络参数避免过拟合,特征提取cnn模型块的最后一个最大池化层将会替换为全局均值池化。

s22,将每个特征提取cnn模型块输出的一维特征矩阵拼接成更长的一维矩阵,进行特征融合并建立两层全连接层网络,由此得到卷积神经网络模型。具体地,请参阅图5,特征融合方式可表示为concatenation=[m1,m2,...,m8];建立两层全连接层网络,顶层节点数为1。为防止模型过拟合,全连接层网络之间加入dropout层,可以表示为:

r~bernoulli(p)

yout=r*yin

其中*代表hadamard乘积,bernoulli函数用于生成概率r参数,p为生成概率,本实施方式中p设置为0.5;yin为dropout层输入,yout为dropout层输出。本实施方式中全连接层网络中间层节点数为256,卷积神经网络模型的激活函数设置为prelu,可表示为:

prelu(x)=max{x,αx}

其中x为输入特征图,max为取极大值函数,α∈[0,1),且α为可训练的参数,可根据模型的梯度更新。卷积神经网络模型输出可表示为:

y=wx+b

其中x为输入特征图,w为权值矩阵,b为偏置矩阵。

s23,利用训练集对卷积神经网络模型进行训练,卷积神经网络模型中所有的权值矩阵的初始化方法为“xavier”初始化。定义参数所在层的输入维度为m,输出维度为n,那么参数w满足:

卷积神经网络模型采用adam优化算法对卷积神经网络模型相关超参数进行优化,卷积神经网络模型的损失函数l设置为均方误差(mse)函数可定义为:

其中,y’为卷积神经网络模型的刀具磨损预测值,y为实际磨损测量值,n为待测试样本数量。

s3将测试集输入到训练好的卷积神经网络模型中,以实时预测刀具的磨损量。具体地,请参阅图6,为了评价卷积神经网络模型的预测准确率,选取平均绝对误差mae、均方根误差rmse和r2决定系数作为评价指标。为减少随机误差的影响,每组实验重复5次,每次实验的评价指标的均值将会作为最终的评价指标,同时考虑实验的标准差。评价指标可以表达为:

式中,y’为预测值,y为实际值,n为测试样本数。

本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1