基于并联深度学习网络的数控机床热误差预测与补偿方法与流程

文档序号:15928335发布日期:2018-11-14 01:22阅读:391来源:国知局

本发明涉及数控机床行业的精度控制技术领域,特别的涉及一种基于并联深度学习网络的数控机床热误差预测与补偿方法。

背景技术

据统计,在精密加工过程中由于工艺系统热变形引起的加工误差占总加工误差的40%-70%,其中数控机床热变形误差占的比重很大,甚至占整个工件加工误差的50%以上。合理有效地进行热误差控制是提高数控机床加工精度的重要保证。误差补偿法就是其中一种最常用有效的方法。而热误差补偿的前提是能够尽可能准确地建立机床热误差和温度之间的映射关系,从而在实时补偿过程中用机床温度值来预报热误差。

由于热误差本身具有准静态时变、非线性、衰减延迟以及耦合的综合特征,所以难以采用理论分析来建立精确热误差数学模型。目前常用的热误差建模方法为实验建模法,即根据统计理论对热误差数据和机床温度值作相关分析用最小二乘原理进行拟合建模。近年来,浅层神经网络理论(bp网络、rbf网络)、灰色系统理论等也已运用到热误差建模中。但用传统方法建立起来的热误差数学模型的除了存在补偿精度和鲁棒性问题外,还存在两大缺陷:一是需要掌握大量的信号处理技术结合丰富的工程实践经验来提取信号特征;二是使用浅层模型难以表征大数据情况下监测信号与热误差之间复杂的映射关系。

深度学习网络及其学习算法,作为成功的大数据分析方法,与传统方法相比,深度学习方法以数据驱动、能自动地从数据中提取特征(知识),对于分析非结构化、模式不明多变、跨领域的大数据具有显著优势。



技术实现要素:

针对上述现有技术的不足,本发明所要解决的技术问题是:如何提供一种能够自动提取数控机床温度数据深层特征,准确表征大数据情况下监测温度信号与热误差之间复杂的映射关系,有利于提高热误差预测与补偿精度、实时性和适应性的基于并联深度学习网络的数控机床热误差预测与补偿方法。

为了解决上述技术问题,本发明采用了如下的技术方案:

一种基于并联深度学习网络的数控机床热误差预测与补偿方法,其特征在于,包括如下步骤:

a、采集样本数据:在数控机床上选取热源测量点,检测热源测量点的温度值,和对应时间点的主轴热误差值,作为样本数据;

b、建立基于并联深度信念网络的深度学习热误差预测模型;

c、采用步骤a所采集到样本数据训练深度学习热误差预测模型;

d、实时检测数控机床热源测量点的温度值,并输入训练后的深度学习热误差预测模型,实时预测热误差值;

e、将预测的热误差值作为数控机床坐标系原点的补偿平移量,通过坐标系原点偏移实现热误差实时补偿。

进一步的,其特征在于,对输入的温度样本数据进行归一化处理到区间[0,1],对网络预测输出的热误差值进行去归一化处理。

进一步的,所述深度学习热误差预测模型主要由三个具有相同网络结构的深度信念网络并联而成,分别为用于预测主轴在x轴方向上的热误差值的dbn1、用于预测主轴在y轴方向上的热误差值的dbn2和用于预测主轴在z轴方向上的热误差值的dbn3;所述dbn1、dbn2和dbn3均包含1个可视输入层,1个输出层和3个限制玻尔兹曼机rbm隐含层,分别为rbm1、rbm2和rbm3;所述dbn1、dbn2和dbn3分别具有不同的权值参数,并共享一个rbm1层。

进一步的,所述可视输入层的神经元数量与所述步骤a中选取的热源测量点数量一致;所述输出层的神经元数量为1,其输出值为主轴在x轴方向、y轴方向或z轴方向上的热误差值。

进一步的,所述限制玻尔兹曼机rbm隐含层的神经元数量采用如下步骤确定:先设定神经元初始数量式中,r为步骤a中选取的热源测量点数量,然后以步长为s逐步增加,同时以所述深度学习热误差预测模型预测均方根误差,将所述深度学习热误差预测模型预测得到的最小均方根误差所对应的神经元数量确定为该限制玻尔兹曼机rbm隐含层的神经元数量。

进一步的,采用对数散度无监督学习方法,预训练模型中的深度信念网络dbn1,获得dbn1网络初始权值,将训练完成的dbn1参数对应赋值给dbn2、dbn3,实现初始权值共享

进一步的,每一时刻的温度数据与对应时刻的热误差组成标签样本数据,用标签样本数据、采用bp算法分别微调生成3个深度信念网络的最优权值。

进一步的,所述步骤a中,选取至少15个热源测量点,并采集至少100组温度值和对应的热误差值作为样本数据。

进一步的,所述热源测量点主要分布在数控机床主轴、各进给轴丝杆螺母副、床身、冷却液和工作室处。

进一步的,所述热误差值包括主轴在x轴方向、y轴方向和z轴方向上的3个热误差值,分别为ex、ey、ez。

综上所述,本发明具有如下优点:

1、本发明基于并联深度信念网络,解决了传统方法使用浅层模型难以表征大数据情况下监测温度信号与热误差之间复杂的映射关系。相较于传统热误差预测系统,大大提高了预测准确性的同时,显著提高了热误差补偿的实时性和适应性。

2、本发明基于深度学习原理,能够自动提取数控机床温度数据深层特征,不需要介入人为的干预,能够摆脱对大量信号处理技术与诊断经验的依赖,完成特征的自适应提取与热误差状态的智能预测与补偿,鲁棒性好、实时性强。

3、本发明提高了热误差预测网络的深层学习能力,解决了传统方法需要掌握大量的信号处理技术结合丰富的工程实践经验来提取信号特征的难题。

附图说明

图1为基于并联深度学习网络的数控机床热误差预测与补偿方法流程图。

图2为龙门加工中心主轴热误差测量示意图。

图3为数控机床深度学习热误差预测模型结构。

图4为x轴方向热误差补偿曲线。

图5为y轴方向热误差补偿曲线。

图6为z轴方向热误差补偿曲线。

具体实施方式

下面结合一种龙门加工中心的热误差预测及补偿对本发明作进一步的详细说明。

具体实施时,如图1所示,具体采用如下步骤:

一、采集数控机床关键点温度值和对应时间的主轴热误差值作为样本数据;

(1)根据该龙门加工中心的结构、工况及热源分布,将热源关键点设置在机床发热较大部位或其附近,采用18个温度传感检测温度数据。温度关键点编号从t1至t18,布置如下:

1)左右立柱部位

丝杠上下轴承座:t1,t2;丝杠螺母:t3,t4;导轨:t5、t6。

2)横梁部位

丝杠左右轴承座:t7,t8;丝杠螺母t9;导轨t10。

3)滑枕部位

主轴箱上表面:t11;主轴箱左侧:t12;主轴箱右侧:t13;主轴法兰:t14。

4)床身及工作台部位

床身:t15;工作台:t16。

5)冷却液部位:冷却液输入管处t17。

6)环境温度:工作车间温度t18。

(2)测量龙门加工中心主轴在径向方向和轴向方向的3个热误差值:ex、ey、ez,测量方式如图2所示。

(3)模拟龙门加工中心连续循环加工状态、主轴旋转、进给轴移动、冷却液循环,但不实际切削。数据采集分上下午进行,采集前将龙门加工中心预热0.5小时,中午1小时停止采集,但不停机,下午继续采集数据,每隔5分钟记录一次各温度传感器的数值和主轴位移传感器的数值,共采集150组温度及热误差数据作为样本数据。

(4)将150组样本数据按如下公式归一化到区间[0,1],用于深度学习预测模型的训练和验证:

式中ai′表示各样本数据归一化后的值,ai为各样本数据原始值,amax和amin分别表示各类型样本数据的最小值和最大值。

二、建立基于并联深度信念网络的深度学习热误差预测模型;

(1)数控机床深度学习热误差预测模型结构构建

数控机床深度学习热误差预测模型由3个深度信念网络(dbn1、dbn2、dbn3)并联而成。3个深度信念网络有相同的网络结构,不同的权值参数,并共享1个限制玻尔兹曼机即rbm1层。

dbn1、dbn2、dbn3分别预测主轴在径向x方向、径向y方向和轴向z方向的热误差值ex、ey、ez。数控机床深度学习热误差预测模型如3图所示。

(2)深度信念网络结构确定

1)每个深度信念网络包含1个可视输入层,3个限制玻尔兹曼机rbm隐含层,和1个输出层。

2)可视输入层神经元数量与设置的关键热源点数量相同,均为18个。输出层神经元数量为1个,其输出为主轴在x轴方向、y轴方向或z轴方向上的热误差值,具体为,dbn1的输出为主轴在x轴方向上的热误差值;dbn2的输出为主轴在y轴方向上的热误差值;dbn3的输出为主轴在z轴方向上的热误差值;

3)每个rbm隐含层的神经元数量对模型的预测精度和泛化能力影响较大。神经元数量过少会造成温度特征信息的丢失,导致特征提取不完整,预测精度低。增加神经元数量,预测精度会提高,但神经元数量过多会造成模型的泛化能力差。rbm隐含层的神经元数量确定方法为:

①根据热源关键点数r=18和采集的样本数据量l=150,先设定每个rbm隐含层的神经元初始数量均为该式含义为取r/2的整数部分,采用均方根误差rmse作为指标对模型预测准确度进行评价,均方根误差rmse定义为:

其中,yt为热误差实际值,为模型的热误差预测值,n为热误差总个数,t为热误差序号。本实施例中,p0为初始值9时,计算得到的均方根误差为0.102。

②保持rbm2和rbm3隐含层的神经元数量固定不变,以步长s=2逐渐增加rbm1隐含层的神经元数量p1,本实施例中,当p1=21时,模型预测的均方根误差达到最小值0.025,将p1=21确定为rbm1隐含层的神经元数量。

③同样的方法,在确定rbm2的时候,rbm1的神经元数量固定在21,rbm3的神经元数量固定在9,最终确定rbm2的神经元数量为21。在确定rbm3的时候,rbm1的神经元数量固定在21,rbm2的神经元数量固定在21,最终确定rbm3的神经元数量为19。

确定rbm2和rbm3隐含层的神经元数量分别为p2=21,p3=19。

三、用所采集样本数据训练深度学习热误差预测模型;

(1)采用对数散度无监督学习方法,预训练模型中的其中1个深度信念网络dbn1,获得其网络初始权值,深度信念网络dbn2、dbn3共享该初始权值。深度信念网络dbn对数散度无监督学习方法如下:

1)将dbn的每一层神经元随机初始化为0或1,不同层之间的神经元连接权重wij置为(0,1)范围里的任意值。首先预训练rbm1。

2)用一温度样本数据由可视层神经元vi算出隐藏层神经元hj,则连接权值wij的正向梯度为hij=vi×hj。

3)由隐藏层神经元hj反向计算得到的可视层神经元为vi′,则连接权值的反向梯度为hij′=vi′×hj。

4)更新权重:wij=wij+ε×(hij-hij′),其中ε为学习速率,一般设定为0<ε<1。

5)每一时刻采集的18个温度数据为一个样本数据,共150个采集时刻即共150个样本数据。循环用采集的150个温度样本数据去训练rbm1网络,不停迭代,直到收敛,即hij-hij≤δ,δ为收敛阈值,其值小于0.01。

本实施例中,预训练rbm1时,学习速率ε设定为0.1,迭代收敛阈值设定为0.005,经990次迭代后完成预训练。采用同样的方法,分别经860次和1100次迭代后完成对rbm2和rbm3的预训练。将训练完成的dbn1参数对应赋值给dbn2、dbn3,实现初始权值共享。

(2)每一时刻的温度数据与对应时刻的热误差组成标签样本数据。用标签样本数据、采用bp算法分别微调生成3个深度信念网络的最优权值。

通过bp方法,用标签数据,反向修正预训练获得的初始权值;然后,正向测试新得到的各层权值参数;如此反复,直到模型预测的均方根误差收敛为止。

均方根误差e收敛判别式为:

其中t为训练次数,λ为极小阈值,一般设定为小于0.01。

本实施例中,均方根误差e的收敛阈值λ设为0.005,微调学习速率ε设为0.1,3个深度信念网络分别经35、46、39次迭代后完成权值微调,此时3个深度信念网络的预测均方根误差分别为0.01、0.015、0.012。

经过上述预训练和调优后,预测模型构建完成,各模型参数成功获得。然后可以将实时检测的一系列温度数据输入预测模型,用来预测对应的主轴热误差值。

四、实时检测数控机床关键点温度值,输入深度学习预测网络预测热误差值。

实时测量30组该龙门加工中心关键热源点温度数据,输入该深度学习预测网络预测主轴热误差,获得了很高精度的热误差预测结果,如图4~6所示。模型预测的热误差均方根误差为0.018,实时数据预测与训练样本数据预测的性能指标基本一致,说明深度学习热误差预测模型具有非常好的泛化能力。

五、将预测的热误差值作为机床坐标系原点的补偿平移量,通过坐标系原点偏移实现热误差实时补偿。

该龙门加工中心主轴在x、y、z3个方向上的热误差为分别为ex、ey、ez,将此作为机床坐标系原点的补偿平移量,机床坐标系原点在x、y、z轴3个方向上分别平移-ex、-ey、-ez,即能够实现机床热误差的精确补偿,补偿后的x、y、z方向的最大残差分别为2.5μm、3μm、2.5μm,补偿后的残差如图4~6所示。

以上所述仅为本发明的较佳实施例而已,并不以本发明为限制,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1