![深度残差LSTM网络及热误差预测模型的建模方法和迁移学习方法](http://img.xjishu.com/img/zl/2021/10/29/hhgqf44uy.jpg)
深度残差lstm网络及热误差预测模型的建模方法和迁移学习方法
技术领域
1.本发明属于机械误差分析技术领域,具体的为一种深度残差lstm网络及热误差预测模型的建模方法和迁移学习方法。
背景技术:2.精密机床作为实现复杂零件高精度加工的关键设备,在航空、航天、核电等领域得到广泛应用。但热误差会显着降低机床的加工精度。已经证明,热误差是总误差的主要部分。因此,减少或避免热误差对于保证加工零件的几何误差极为重要。不平衡的温度场是热误差的主要原因。内部和外部热源导致温度场不平衡。内部热源包括伺服电机、轴承、滚珠丝杠、滚动导轨等,但不限于这些热源。滚动功能部件,包括轴承、滚珠丝杠和滚动导轨以及伺服电机也会导致温度升高。工作条件对内部热源有直接影响,环境温度、阳光和人类也随着时间的推移而不同,因此动态热误差具有时变和非线性效应。
3.基于机理的误差模型能够反映产生热误差的根本原因,但是基于机理的误差模型不够灵活和准确,不足以显示机床的热行为,因为边界条件难以准确确定。基于数据的误差建模和控制方法具有当前机器学习和深度学习方法的优势,与基于机理的模型相比,基于数据的误差模型更加灵活,使用起来更加方便。以前的研究将临界温度视为基于数据的模型的输入,聚类方法用于选择临界温度,但不能完全消除温度之间的共线性,导致鲁棒性下降。而且,传统模型的预测精度不够高,因为误差模型没有自学习和自更新能力。此外,经验相关性和基于数据的误差模型不能准确反映误差机理。
技术实现要素:4.有鉴于此,本发明的目的在于提供一种深度残差lstm网络及热误差预测模型的建模方法和迁移学习方法,能够避免网络深度增加导致的预测精度饱和问题,能够有效提高预测精度和鲁棒性。
5.为达到上述目的,本发明提供如下技术方案:
6.本发明首先提出了一种深度残差lstm网络,其特征在于:包括依次设置的:
7.输入层;
8.卷积层:利用多个不同的卷积核得到多个特征向量来实现特征降维;
9.池化层:用于减少每一层训练所涉及的参数数量;
10.重塑层:重新排列某个维度的多维矩阵,并构造一个元素数相同但维度不同的新矩阵;
11.lstm层:用于表征热误差的长期和非线性记忆行为;
12.dense层;
13.输出层;
14.所述lstm层与密集层之间设有n个预激活残差块,且n≥1;所述预激活残差块包括
依次设置的第一bn层、第一权重层、第一卷积层、第二bn层、第二权重层和第二卷积层;所述第一bn层和第二bn层用于解决网络无法收敛的问题;所述第一权重层和第二权重层用于提取特征;所述第一bn层与第一权重层之间以及第二bn层与第二权重层之间分别具有用于减少参数之间的相互依赖的激活函数。
15.进一步,所述预激活残差块的残差结构可表示为:
[0016][0017]
其中,x0表示输入;w
i
表示与第i
th
个残差单元相关的权重;x
m
表示任意深度层m的特征。进一步,所述激活函数采用relu函数,并可表示为:
[0018]
relu(x)=max(0,x)。
[0019]
本发明还提出了一种热误差预测模型的建模方法,包括如下步骤:
[0020]
1)对原始热误差数据进行预处理;
[0021]
2)随机生成斑鬣狗种群,判断斑鬣狗种群的初始位置是否超出预设范围;若是,则将斑鬣狗种群的初始位置更改为边界;若否,则保持斑鬣狗种群的位置;
[0022]
3)建立如上所述的深度残差lstm网络;
[0023]
4)将斑鬣狗的位置映射为深度残差lstm网络的batch size和epoch size;
[0024]
5)将预处理后的热误差数据输入深度残差lstm网络,以mae(平均绝对误差)作为斑鬣狗优化算法的适应度,通过深度残差lstm网络的训练和预测得到mae的值;
[0025]
6)判断mae是否满足预设要求;若是,则执行步骤8);若否,则以斑鬣狗优化算法更新斑鬣狗种群的位置,若更新后的适应度小于更新前的最优适应度,则以搜索到斑鬣狗位置x
t+1
替换更新前的最优的斑鬣狗位置x
*
;
[0026]
7)判断迭代次数是否达到最大值,若是,则终止迭代,得到最佳解;若否,则令t=t+1,循环步骤4)和步骤7);
[0027]
8)输出mae,以优化得到的斑鬣狗位置映射的batch size和epoch size作为深度残差lstm网络的超参数。
[0028]
进一步,所述步骤1)中,采用ilms过滤算法对原始热误差数据进行预处理,且ilms过滤算法的滤波器估计得到的输出表示为:
[0029][0030]
其中,x(n)表示状态向量,且x(n)=[x(n),x(n
‑
1),
…
,x(n
‑
m+1)]
t
;w
t
(n)表示权重向量w(n)的转置矩阵,且w(n)=[w(n),w(n
‑
1),
…
,w(n
‑
m+1)]
t
;x(n)和y(n)分别表示输入和输出;m表示最大迭代次数;w(n)表示权重系数;a为系数,且a≥1;
[0031]
其中,权重系数的更新为:
[0032]
w(n+1)=w(n)+μ(n)e(n)x(n)
[0033]
e(n)为估计误差,且:
[0034]
e(n)=d(n)
‑
y(n)
[0035]
其中,d(n)表示n时刻的期望响应;μ(n)为非线性可变步长;
[0036]
[0037]
其中,c表示控制函数形状的常数;β表示控制函数范围的常量。
[0038]
进一步,所述步骤2)中,采用混沌伯努利映射生成斑鬣狗种群的初始位置,并使斑鬣狗在搜索空间中均匀分布,其中,混沌伯努利映射表示为:
[0039][0040]
其中,λ=0.4;z0=0.152;
[0041]
通过伯努利位移变换,得到:
[0042]
z
k+1
=z
k mod1
[0043]
其中,z
k
表示第k个斑鬣狗;z
k+1
表示表示第k+1个斑鬣狗;λ为0.5。
[0044]
进一步,所述斑鬣狗优化算法包括包围过程、狩猎过程和攻击过程三种行为;其中,包围过程为:
[0045]
d
h
=|b
·
p
p
(x)
‑
p(x)|
[0046]
p(x+1)=p
p
(x)
‑
e
·
d
h
[0047]
其中,d
h
表示斑鬣狗与其猎物之间的距离;x表示当前迭代次数,且x=1,2,3,
…
,max
iteration
,max
iteration
表示最大迭代次数;p(x)表示斑鬣狗的位置;p
p
(x)表示猎物的位置;b和e分别为swing因子和收敛因子,具体定义如下:
[0048]
b=2
·
rand1[0049]
e=2h
·
rand2‑
h
[0050]
其中,rand1和rand2均表示[0,1]之间的两个随机数;h表示控制因子。
[0051]
进一步,所述步骤7)中,若迭代次数未达到最大值,则采用差分变异算子(dmo)对斑鬣狗种群进行一次变异操作,然后用贪心策略比较两个种群的质量,保留优势种群,表示为:
[0052][0053]
其中,表示采用贪心策略优化后的斑鬣狗种群;p
h
(x+1)表示当前最优解集的平均值;f表示变异权重因子;和分别表示两个个体;a和b分别表示1和种群规模之间的两个随机整数。
[0054]
进一步,所述控制因子采用非线性控制因子,且:
[0055][0056]
本发明还提出了一种热误差预测模型的迁移学习方法,包括如下步骤:
[0057]
1)采集目标设备的热误差数据,并对目标设备的热误差数据进行预处理;
[0058]
2)改变由如上所述热误差预测模型的建模方法所构建的热误差预测模型的dense层的参数,将经预处理后的所述目标设备的热误差数据输入并训练所述热误差预测模型的权重和偏差,得到迁移学习误差模型。
[0059]
本发明的有益效果在于:
[0060]
本发明的深度残差lstm网络,通过在lstm层与密集层之间设置预激活残差块,能够在训练过程中保存部分原始输入信息,转移学习目标,避免网络深度增加导致预测精度饱和。对于普通的深度网络,不同层通过非线性映射叠加以拟合输出;在残差网络中,通过
恒等映射直接连接深浅层,然后避免了每两个相邻层之间复杂的梯度推导计算,从而可以有效地将梯度从深网络转移到浅层网络,即本发明的深度残差lstm网络能够避免网络深度增加导致的预测精度饱和问题,能够有效提高预测精度和鲁棒性。
[0061]
本发明热误差预测模型的建模方法,热误差数据作为时间序列,具有不稳定、非线性和周期性不确定性的特点并受许多因素影响,首先对原始热误差数据进行预处理以剔除奇异值,然后利用斑鬣狗优化算法对深度残差lstm网络的batch size和epoch size进行优化,得到以mae为适应度的全局最优超参数,再结合深度残差lstm网络够避免网络深度增加导致的预测精度饱和的问题,能够提高齿形磨床热误差的预测精度和鲁棒性。
[0062]
本发明热误差预测模型的迁移学习方法,通过在热误差预测模型内采用具有预激活残差块的深度残差lstm网络,仅微调dense层的参数,利用数据量较小的目标设备的热误差数据对热误差预测模型进行训练,优化其权重和偏差后,即可得到迁移学习误差模型,实现目标设备的误差控制。
附图说明
[0063]
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
[0064]
图1为本发明深度残差lstm网络实施例的结构示意图;
[0065]
图2为残差块的结构示意图;(a)为原始残差块;(b)为预激活残差块;
[0066]
图3为lms自适应滤波器的原理图;
[0067]
图4(a)调整函数与估计误差之间的曲线关系;图4(b)为可变步长与估计误差之间的曲线关系;
[0068]
图5为控制因子比较曲线图;
[0069]
图6为lstm网络的单位结构图;
[0070]
图7为预测精度与网络深度之间的关系曲线图;
[0071]
图8(a)为普通网络层的结构图;图8(b)为残余网络层的结构示意图;
[0072]
图9为螺杆轴的传热示意图;
[0073]
图10为机床#1的热行为测量图;(a)为机床#1;(b)为位移传感器的安装示意图;
[0074]
图11为测量得到的原始热误差数据图,图11(a)为温度数据;图11(b)为误差数据;
[0075]
图12为经ilms过滤算法预处理后的热误差数据图;(a)为传统lms与ilms的比较曲线图;(b)为误差数据波动范围的比较图;
[0076]
图13(a)为不同残差块的预测曲线图;图13(b)为不同时间步长的预测曲线图;
[0077]
图14(a)为不同模型的预测拟合曲线图;图14(b)为不同模型的预测误差曲线图;
[0078]
图15为迁移学习的不同方法示意图;
[0079]
图16为本发明热误差预测模型的迁移学习方法的原理框图;
[0080]
图17机床#2的热行为,图(a)为热行为测量;(b)为温度曲线;(c)为热误差曲线;
[0081]
图18为不同模型的预测性能;(a)为预测结果曲线;(b)为预测误差曲线;
[0082]
图19为样品测试的示意图;
[0083]
图20为试样加工误差的曲线图;(a)为没有误差控制;(b)为ilms
‑
dsho
‑
drlstmn迁移学习模型;(c)为ilms
‑
drlstmn迁移学习模型;(d)为ilms
‑
dsho
‑
lstmn迁移学习模型;(e)
为ilms
‑
bp迁移学习模型;(f)为ilms
‑
mlra迁移学习模型;(g)为ilms
‑
lssvm迁移学习模型。
具体实施方式
[0084]
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好的理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
[0085]
本实施例热误差预测模型的建模方法,包括如下步骤:
[0086]
1)对原始热误差数据进行预处理。
[0087]
本实施例采用ilms过滤算法对原始热误差数据进行预处理。lms算法鲁棒性强,易于实现,如图3所示,广泛应用于系统识别和噪声消除,已成为常用的自适应滤波算法。高鲁棒性和收敛速度是热误差控制的基本要求,因为需要高实时性,热误差的动态噪声消除是一个典型的应用。收敛性和准确性之间的矛盾已经成为限制其在这些情况下应用的瓶颈之一,为了解决这个问题,设计了一个新的调整功能。
[0088]
ilms过滤算法的滤波器估计得到的输出表示为:
[0089]
其中,x(n)表示状态向量,且x(n)=[x(n),x(n
‑
1),
…
,x(n
‑
m+1)]
t
;w
t
(n)表示权重向量w(n)的转置矩阵,且w(n)=[w(n),w(n
‑
1),
…
,w(n
‑
m+1)]
t
;x(n)和y(n)分别表示输入和输出;m表示最大迭代次数;w(n)表示权重系数;a为系数,且a≥1;
[0090]
其中,权重系数的更新为:w(n+1)=w(n)+μe(n)x(n)
[0091]
e(n)为估计误差,且:e(n)=d(n)
‑
y(n)
[0092]
其中,d(n)表示n时刻的期望响应;μ为步长,满足以下关系:
[0093]
其中,γ
max
表示相关矩阵r{e[w(n)
‑
w0]}的最大特征值,其中w0表示维纳解;e[w(n)
‑
w0]表示维纳矩阵。
[0094]
收敛速度和滤波精度共同构成了滤波算法性能的评价指标。优秀的滤波算法收敛速度快,滤波精度足够高。对于固定步长m(n),步长较小时滤波精度高,收敛速度低;步长大时,滤波精度低,收敛速度高。因此,对于固定步长的lms,很难在收敛速度和滤波精度方面达到最佳。上述不可调和的矛盾已经成为传统lms广泛应用的重要瓶颈。针对这些缺点和局限性,针对传统lms提出了一些改进方法,包括可变步长lms和归一化lms,可变步长lms具有简单性和可行性的优点,具体的,步长由sigmoid函数优化,并表示为
[0095][0096][0097]
其中c表示控制函数形状的常数:β表示控制函数范围的常量;m1(n)表示变步长公式1;m2(n)表示变步长公式2。
[0098]
sigmoid函数的陡峭程度直接由参数c决定,与sigmoid函数的增长率呈负相关;β表示sigmoid函数中因变量的范围,决定了函数的高度。在初始阶段,滤波估计结果的估计误差e(n)是不可避免的。所以应该使用大的步长来有效地保证收敛速度足够高。随着更新计算,算法逐渐进入稳定状态,估计精度提高,估计误差e(n)开始减小并趋于稳定。相应地,
应大幅减小步长,以确保滤波器能够保持较小的稳态误差并具有出色的鲁棒性。针对目前sigmoid函数的不足,在sigmoid函数的基础上设计了一个调整函数χ。
[0099][0100]
其中,a≥1。
[0101]
当估计误差e(n)较小时,调整函数χ接近于1,调整函数基本不影响变步长函数的性质,如图4(a)所示。当估计误差e(n)较大时,调整函数χ急剧增大,可变阶跃函数变化明显,从而加快收敛速度,如图4(b)所示。调整函数χ可以调整收敛特性。然后提出改进的非线性可变步长μ(n)作为步长m1(n)和调整函数χ的乘积。
[0102][0103]
其中,c表示控制函数形状的常数;β表示控制函数范围的常量。
[0104]
以非线性可变步长μ(n)替换步长μ,权重系数的更新为:
[0105]
w(n+1)=w(n)+μ(n)e(n)x(n)
[0106]
可以看出,非线性可变步长μ(n)是一个以估计误差e(n)为自变量的偶函数。可变步长在阈值两侧具有不同的函数属性。当估计误差e(n)小于阈值g时,函数基本保持原函数的性质。当误差大于阈值g时,滤波器的收敛速度呈指数增长,非线性类型。主要原因是对等式中的步长因子应用了扩展增加调整,加上调整函数χ,最终优化收敛速度。随着a的增加,收敛速度增加,达到最大收敛值,误差阈值也不断增加。在实际应用中,通常a≥5。
[0107]
2)随机生成斑鬣狗种群,判断斑鬣狗种群的初始位置是否超出预设范围;若是,则将斑鬣狗种群的初始位置更改为边界;若否,则保持斑鬣狗种群的位置。
[0108]
本实施例采用混沌初始化策略随机生成斑鬣狗种群。混沌理论由于具有较强的遍历性、敏感性和非重复性等优点,被广泛引入到群体智能算法中,以增强种群多样性,提高其优化性能。与随机搜索相比,它可以以较高的概率和速度搜索搜索空间。logistic映射被广泛用于生成混沌序列,但其均匀性较差。与logistic映射相比,伯努利映射结构简单,收敛速度快,遍历均匀性好。在本研究中,混沌初始化是在dshoa(差分斑鬣狗优化算法)的初始迭代阶段进行的。选择伯努利映射生成的混沌序列来改进dshoa。基于混沌伯努利映射,生成鬣狗种群的初始位置,并在搜索空间中均匀分布,增加种群多样性和优化精度。从而可以提高解决方案的效率和质量。使用伯努利映射,并表示为:
[0109][0110]
其中,λ=0.4;z0=0.152;
[0111]
通过伯努利位移变换,得到:z
k+1
=z
k
mod1
[0112]
其中,z
k
表示第k个斑鬣狗;z
k+1
表示表示第k+1个斑鬣狗;λ为0.5。
[0113]
3)建立深度残差lstm网络。
[0114]
本实施例的深度残差lstm网络,包括依次设置的:
[0115]
输入层;
[0116]
卷积层:利用多个不同的卷积核得到多个特征向量来实现特征降维;
[0117]
池化层:用于减少每一层训练所涉及的参数数量;
[0118]
重塑层:重新排列某个维度的多维矩阵,并构造一个元素数相同但维度不同的新矩阵;
[0119]
lstm层:用于表征热误差的长期和非线性记忆行为;
[0120]
dense层;
[0121]
输出层;
[0122]
所述lstm层与密集层之间设有n个预激活残差块,且n≥1;所述预激活残差块包括依次设置的第一bn层、第一权重层、第一卷积层、第二bn层、第二权重层和第二卷积层;所述第一bn层和第二bn层用于解决网络无法收敛的问题;所述第一权重层和第二权重层用于提取特征;所述第一bn层与第一权重层之间以及第二bn层与第二权重层之间分别具有用于减少参数之间的相互依赖的激活函数。
[0123]
具体的,lstm层内设有lstm网络,lstm网络的单元结构如图6所示。整个记忆单元结构由输入门、遗忘门、记忆单元和输出门组成。每个门都有其独特的功能,四种门共同决定了一个lstm网络单元的输出。lstm网络的一个单元的原理如下:
[0124]
i
t
=σ(w
i
x
t
+u
i
h
t
‑1+b
i
)
[0125]
o
t
=σ(w
o
x
t
+u
o
h
t
‑1+b
o
)
[0126]
f
t
=σ(w
f
x
t
+u
f
h
t
‑1+b
f
)
[0127]
a
t
=tanh(w
c
x
t
+u
c
h
t
‑1+b
c
)
[0128]
c
t
=f
t
⊙
c
t
‑1+i
t
⊙
a
t
[0129]
h
t
=o
t
⊙
tanh(c
t
)
[0130]
其中,x
t
表示当前流入细胞单元的新信息;h
t
‑1表示历史信息:w
i
,w
o
和w
f
表示三个门的权重;b
i
,b
o
和b
f
表示三个门的偏置;f
t
,c
t
‑1,c
t
,a
t
,i
t
和o
t
分别表示分别为遗忘门、前一时刻状态、当前时刻状态、当前状态候选、输入门和输出门;
⊙
表示产品。
[0131]
随着网络的深入,网络可能会出现过拟合、梯度消失或爆炸的情况,严重影响训练过程,导致性能不佳。根据独特的残差块设计提出了drlstmn误差预测模型。然后解决了训练瓶颈,包括梯度消失和网络退化。最后,提高了drlstmn误差模型的预测性能。在深度学习中,深度网络的预测能力普遍优于浅层网络。在实践中,如果要最大化预测模型的预测精度,网络深度的增加是不可避免的。如图7所示,开始时,随着预测模型网络的深度,精度不断提高。但是,当网络层数过大时,模型的准确率会显着下降,模型将变得非常难以训练和调优。出现这种现象的原因是网络模型采用链式法则逐层反馈传播梯度,随着网络深度的增加,网络梯度在反向过程中会逐渐减小甚至消失。而且,深度越深,梯度下降或消失越严重。导致之前网络层的权重无法有效转移到浅层网络,出现梯度分散或梯度爆炸。
[0132]
残差块是drlstmn的核心,其主要思想是在训练过程中保存部分原始输入信息,转移学习目标,避免网络深度增加导致预测精度饱和。对于普通的深度网络,不同层通过非线性映射叠加以拟合输出h(x),如图8(a)所示。在残差网络中,通过恒等映射直接连接深浅层,然后避免了每两个相邻层之间复杂的梯度推导计算,从而可以有效地将梯度从深网络转移到浅层网络。残差网络中的残差模块如图8(b)所示,其中x是输入,f(x)是残差函数。在深度网络的构建中加入shortcut connection(快捷连接),输入x通过旁路分支直接连接到后续层。网络的重点转移到学习残差上,这可以保护信息的完整性。
[0133]
假设当前网络层数为n,残差结构写为:x
n+1
=x
n
+f(x
n
,w
n
)
[0134]
其中w
n
表示与第n
th
个残差单元相关的权重;:x
n
和x
n+1
分别表示第n
th
和(n+1)
th
个残差块的输出特征。
[0135]
通过递归推导,得到任意深度层m的特征表达式:
[0136]
即任意深度层m的特征x
m
都可以表示为浅层编号n的特征x
n
加上之前所有残差函数输出f之和,说明任意深度m和n直接具有残差特征。与普通神经网络相比,它的特征x
m
是由一系列向量的乘积组成。
[0137][0138]
其中w
i
表示与第i
th
个残差单元相关的权重;x0表示输入。
[0139]
可见,残差网络的求和计算远小于普通神经网络的求积计算。对于反向传播,假设损失函数为ε,根据反向传播的链式推导规则得到如下关系。
[0140][0141]
可以发现,导数可以分为两部分:
[0142]
1)不通过权重层转移的组成部分
[0143]
2)通过权重层传递的组成部分
[0144]
前者保证输入可以直接转回到任意深度n,推导中也避免了梯度消失或爆炸,因为后者不能为
‑
1。然后通过这种带有残差网络的巧妙结构设计,简化了学习目标和困难。更重要的是,叠加多层网络并没有降低整个学习模型的误差率,反而增加了误差率。然后打破对网络深度的约束,提高了误差预测模型的预测精度,而无需额外的计算。因此应用残差块来构建误差预测模型。有两种残差块,即原始残差块和预激活残差块,如图1所示。为了避免不同的数据维度和分布影响预测精度,增加了批量归一化(bn)层。残差块主要由两个权重层、两个批量归一化(bn)层、两个卷积层和relu函数组成。bn层解决了网络无法收敛的问题,提高了网络的泛化能力,加快了训练过程。权重层用于提取特征,relu用于减少参数之间的相互依赖,提高非线性建模能力。加法是求和运算。在原始残差块中,第一层对误差数据进行卷积运算,增加了计算复杂度。预激活残差块采用预激活连接方式。所以在本研究中使用了预先激活的残差块。残差块中的激活函数为relu,表示为
[0145]
relu(x)=max(0,x)
[0146]
本实施例的深度残差lstm网络(drlstmn)的结构由一层输入层、一层卷积层、一层池化层、一层重塑层、一层lstm网络层、n个残差块、一层dense层和一层输出层组成。卷积层主要是利用多个不同的卷积核得到多个特征向量来实现特征降维。池化层用于减少每一层训练所涉及的参数数量。从而加快训练速度,挖掘误差数据更深层次的有用信息。池化层的大小为5
×
1,移动步长为5。重塑层重新排列某个维度的多维矩阵,构造一个元素数相同但维度不同的新矩阵,即多维矩阵被重塑层转换为一维向量。lstm网络层因其独特的长短期记忆功能而被使用。由于热误差的长期和非线性记忆行为是明显的。因此,lstm网络的长期和短期记忆特征用于表征热误差的长期和非线性记忆行为。设计的drlstmn中有n个预激活
残差块,那么drlstmn中总共有2n+1个卷积层。误差数据依次循环通过两个预先激活的残差块,最后输出预测误差。
[0147]
4)将斑鬣狗的位置映射为深度残差lstm网络的batch size和epoch size。
[0148]
5)将预处理后的热误差数据输入深度残差lstm网络,以mae(平均绝对误差)作为斑鬣狗优化算法的适应度,通过深度残差lstm网络的训练和预测得到mae的值。
[0149]
6)判断mae是否满足预设要求;若是,则执行步骤8);若否,则以斑鬣狗优化算法更新斑鬣狗种群的位置,若更新后的适应度小于更新前的最优适应度,则以搜索到斑鬣狗位置x
t+1
替换更新前的最优的斑鬣狗位置x
*
。
[0150]
标准的shoa(斑鬣狗优化算法)源自非洲斑鬣狗的狩猎和觅食机制。斑鬣狗优化算法包括包围过程、狩猎过程和攻击过程三种行为。
[0151]
包围过程为:斑鬣狗首先会寻找猎物,根据其视觉确定猎物的位置。将此时距离猎物最近的斑鬣狗作为当前最优解,然后根据最优解更新其他斑鬣狗的位置,得到全局最优解。
[0152]
d
h
=|b
·
p
p
(x)
‑
p(x)|
[0153]
p(x+1)=p
p
(x)
‑
e
·
d
h
[0154]
d
h
表示斑鬣狗与其猎物之间的距离;x表示当前迭代次数,x=1,2,3,
…
,max
iteration
,max
iteration
表示最大迭代次数;p(x)表示斑鬣狗的位置:p
p
(x)表示猎物的位置:b和e分别为swing因子和收敛因子,具体定义如下:
[0155]
b=2
·
rand1[0156]
e=2h
·
rand2‑
h
[0157]
h=5
‑
(5x/max
iteration
)
[0158]
其中,rand1和rand2表示[0,1]之间的两个随机数;h表示原控制因子,并在迭代过程中从5线性递减到0。
[0159]
狩猎过程如下:斑鬣狗根据信任等级成组狩猎。在种群中定义最佳搜索个体,其他斑鬣狗个体向最佳个体移动,形成新的群体。因此,行为被具体定义为:
[0160]
d
h
=|b
·
p
h
‑
p
k
|
[0161]
p
k
=p
h
‑
e
·
d
h
[0162]
c
h
=p
k
+p
k+1
+
…
+p
k+n
[0163]
其中,p
h
,p
k
分别c
h
表示最佳个体、其他个体和新组的位置;n表示斑鬣狗的数量,并定义为:
[0164]
n=cout
nos
(p
h
,p
h+1
,p
h+2
,
…
,(p
h
+m))
[0165]
其中,m表示[0.5,1]的随机向量;并nos表示所有可行的解决方案。
[0166]
攻击过程(局部搜索)如下:在这个阶段,斑鬣狗会不断更新自己的位置,最终对猎物发起攻击。控制因子h将从5线性减小到零,收敛因子e将逐渐减小。当|e|<1时,斑鬣狗会发起攻击。
[0167]
p
h
(x+1)=c
h
/n
[0168]
其中,p
h
(x+1)表示当前最优解集的平均值。
[0169]
搜索过程(全局探索)如下:大多数斑鬣狗根据斑鬣狗在最佳搜索组c
h
中的位置搜索猎物,当收敛因子|e|<1时,斑鬣狗再次搜索并攻击猎物,从而执行全局搜索。
[0170]
本实施例的斑鬣狗优化算法采用差分斑鬣狗优化算法(dshoa)。具体的,做了以下几何几个方面的改进:
[0171]
(1)混沌初始化策略:详见本实施例热误差预测模型的建模方法的步骤2);
[0172]
(2)差分变异算子(dmo)
[0173]
差分变异算子(dmo)模拟种群变异产生新的种群,然后与原始种群进行比较,保留一个优势种群。这种改进策略丰富了种群多样性,扩大了搜索范围,避免了算法陷入局部极值。dmo的原理是先进行一次变异操作,然后用贪心策略比较两个种群的质量,保留优势种群。
[0174][0175]
其中,表示采用贪心策略优化后的斑鬣狗准群;p
h
(x+1)表示当前最优解集的平均值;f表示变异权重因子,其值为0.5;和分别表示两个个体;a和b分别表示1和种群规模之间的两个随机整数。保留优势种群,进行下一次迭代。
[0176]
(3)非线性控制因子
[0177]
标准的shoa的控制因子h采用线性递减策略。但迭代过程本质上是非线性的。即控制因子h的线性下降不能准确反映实际的优化搜索过程。因此,设计了一个新的非线性控制因子:
[0178][0179]
新的控制因子h随迭代次数x非线性减小,如图5所示。迭代次数x越大,控制因子衰减越严重。在迭代开始时,新的控制因子h缓慢减小,然后实现渐进搜索状态。在后期,新控制因子h的衰减增大,搜索速度加快,从而得到最优解。上述行为可以提高局部最优解的搜索精度。因此,这种非线性控制因子比]中所示更符合实际收敛过程,全局优化能力进一步增强。新的控制因子h的衰减比中显示的要显着得多,进而提高了收敛速度,有利于寻找全局最优解。
[0180]
7)判断迭代次数是否达到最大值,若是,则终止迭代,得到最佳解;若否,则令t=t+1,循环步骤4)和步骤7)。
[0181]
8)输出mae,以优化得到的斑鬣狗位置映射的batch size和epoch size作为深度残差lstm网络的超参数。
[0182]
本实施例热误差预测模型的建模方法,热误差数据作为时间序列,具有不稳定、非线性和周期性不确定性的特点并受许多因素影响,首先对原始热误差数据进行预处理以剔除奇异值,然后利用斑鬣狗优化算法对深度残差lstm网络的batch size和epoch size进行优化,得到以mae为适应度的全局最优超参数,再结合深度残差lstm网络够避免网络深度增加导致的预测精度饱和的问题,能够提高齿形磨床热误差的预测精度和鲁棒性。
[0183]
本实施例还提出了一种热误差预测模型的迁移学习方法,包括如下步骤:
[0184]
1)采集目标设备的热误差数据,并对目标设备的热误差数据进行预处理;
[0185]
2)改变由如上所述热误差预测模型的建模方法所构建的热误差预测模型的dense层的参数,将经预处理后的所述目标设备的热误差数据输入并训练所述热误差预测模型的权重和偏差,得到迁移学习误差模型。
[0186]
本实施例热误差预测模型的迁移学习方法,通过在热误差预测模型内采用具有预激活残差块的深度残差lstm网络,仅微调dense层的参数,利用数据量较小的目标设备的热误差数据对热误差预测模型进行训练,优化其权重和偏差后,即可得到迁移学习误差模型,实现目标设备的误差控制。
[0187]
下面以具体实例对本实施例热误差预测模型的建模方法以及热误差预测模型的迁移学习方法的具体实施方式进行详细说明。
[0188]
1、误差机理
[0189]
1.1、传热建模
[0190]
为了简化温度响应的建模过程,轴承#1和电机被视为第一个等效的热源,因为总热负荷相当于q
b1
轴承#1热源负载的s um,以及从伺服电机到轴承#1的热源负载。其他两个热源是移动螺母q
n
和后轴承,q
b2
如图9所示。移动螺母被视为多段热源,螺杆轴的传热方程表示为:
[0191][0192]
t(0,t)=t
b1
(t)=temperature of left end=temperature of bearing#1
[0193]
t(l,t)=t
b2
(t)=temperature of right end=temperature of bearing#2
[0194]
t(x
i
,t
j
)=t
n
(x
i
,t
j
)=temperature of moving nut
[0195]
其中,c表示特定的热容量;t(x,t)表示温度;h和k分别表示对流系数和导热性;ρ表示密度;d0和t0分别表示间距直径和参考温度,且t(0,t)和t(l,t)分别表示左右两端的温度。然后使用变量分解方法将原点处热源的温度响应t(x,t)写为时间和位置的函数:
[0196]
t(x,t)=t
t
(t)
·
t
p
(x)
[0197]
其中,t
t
(t)和t
p
(x)表示两个组成部分。
[0198]
时间依赖组成部分表示为t
t
(t):t
t
(t)=a(1
‑
e
‑
t/b
)
[0199]
位置依赖组成部分表示为t
p
(x):t
p
(x)=ce
‑
x/d
[0200]
其中,a、b、c和d分别为要识别的系数。
[0201]
则,温度响应t(x,t)表示为:
[0202]
t(x,t)=a(1
‑
e
‑
t/b
)ce
‑
x/d
[0203]
1.2、误差机理
[0204]
热膨胀表示为:
[0205]
零时刻的热膨胀是δl(0)为:δl(0)=f(a,c,d,l)
[0206]
δt时刻的热膨胀是δl(δt)为:δl(δt)=f(a,c,d,l)(1
‑
e
‑
δt/b
)
[0207]
其中,δt表示无穷小的.时间间隔。
[0208]
2δt时刻的热膨胀是δl(2δt)为:
[0209]
nδt时刻的热膨胀是δl(nδt)为:
[0210][0211]
可见,nδt时刻的热膨胀δl(nδt)对于δl((n
‑
1)δt),δl((n
‑
2)δt),
…
,δl(2δt),andδl(δt)的历史热误差具有极强的非线性记忆特性。
[0212]
2、目标设备的迁移学习
[0213]
2.1、误差模型训练
[0214]
2.1.1、机床#1的热误差测量
[0215]
精密机床#1被视为研究对象,如图10(a)所示。最高转速为8000r/min。伺服电机额定功率为11~15kw。工作台尺寸为500mm
×
500mm。工作台质量0~600kg。x轴、y轴、z轴的额定功率分别为7.5kw、7.5kw、9kw。内冷电机额定功率0.09kw,冷却泵电机额定功率0.09kw。然后使用十一个温度传感器和五个位移传感器来测量温度场和热误差。五个位移传感器的安装如图10(b)所示。
[0216]
2.1.2、误差过滤
[0217]
得到原始热行为数据,如图11所示,原始温度和误差数据中奇异值明显,对数据质量影响较大。奇异值不利于高精度和鲁棒的预测。此外,由于工业领域复杂,高频噪声很重要。高频噪声压倒了有用的热信息,这不利于热误差的高精度和鲁棒预测。所以ilms被用来排除高频噪声和奇异值的影响。
[0218]
热伸长率s1用于表示误差模型的训练过程。对于热误差的高精度和鲁棒预测,奇异点和高频噪声是不允许存在的。可变步长中的值为5,所提出的ilms用于排除高频噪声和奇异值,如图12(a)所示。原始数据的波动幅度远大于滤波后数据的波动幅度,如图12(b)所示。传统的lms去除了大部分奇异点和高频噪声,但仍然不能完全去除奇异点和噪声。所提出的ilms可以捕获误差数据的主要特征,并且完全去除奇异点。更重要的是,ilms获得的滤波误差数据的波动小于传统lms获得的波动,这意味着ilms在排除高频噪声和奇异点方面比传统lms有效得多。然后验证了所提出的ilms的有效性。
[0219]
2.1.3、误差模型训练
[0220]
基于python的keras深度学习包用于构建ilms
‑
dshoa
‑
drlstmn模型。由于模型参数过多,drlstmn的batch size和epoch size这两个最重要的超参数被提出的dshoa优化,然后batch size和epoch size分别为20和16。此外,调整残差块的数量和时间步长。当残差块数为15,timesetp为5时,预测性能最好,如图13所示,因此残差块数设为15,timesetp设为5。
[0221]
总共有2n+1个卷积层。每个卷积层有三个参数,包括卷积核大小、移动步长和卷积核个数。为了提取短期特征,第一个卷积层使用宽卷积核,可以自适应地学习特征进行误差预测并提高预测精度[44]。对于第一个卷积层(1#),卷积核大小为64
×
1,移动步长为16,卷积核数为32。其余2n个卷积层的具体参数见表1。
[0222]
表1.卷积层的参数设置
[0223]
[0224][0225]
lstm网络层的设置如下:初始学习率为0.001。使用了adam优化器,它动态调整学习率,使参数在更新时保持稳定。adam优化器的效果非常突出,在实际应用中超越了其他优化器的效果。均方误差(mse)是确定训练效果的误差损失评价函数。最后,获得ilms
‑
dshoa
‑
drlstmn的参数和设置,如表2中所列。
[0226]
表2.ilms
‑
dshoa
‑
drlstmn的参数
[0227][0228]
ilms
‑
drlstmn的结构与ilms
‑
dshoa
‑
drlstmn的结构相同,ilms
‑
drlstmn的参数是随机产生的。从ilms
‑
dshoa
‑
drlstmn中去除残差块得到ilms
‑
dshoa
‑
lstmn,然后ilms
‑
dshoa
‑
lstmn的结构与ilms
‑
dshoa
‑
drlstmn的结构不同。ilms
‑
dshoa
‑
lstmn的参数与ilms
‑
dshoa
‑
drlstmn的参数相同。包括ilms
‑
bp、ilms
‑
mlra和ilms
‑
lssvm在内的传统误差模型的输入是临界温度。模糊聚类用于选择临界温度,并选择t5,t6,t7,t9,and t
10
作为临界温度。对于ilms
‑
bp网络,只有一层隐藏层,输入层、隐藏层、输出层的神经元数量分别为5、11和1。学习率为0.001。最大迭代次数为1000。传递函数为trainlm。matlab中的newff和train函数分别用于构建和训练模型。ilms
‑
mlra 写为:
[0229]
e=
‑
0.2309
‑
0.7314t5+7.0575t6‑
1.6333t7+0.2827t9+0.2589t
10
[0230]
ilms
‑
lssvm模型的参数如下:径向基函数(rbf)是核函数。可调参数γ=50、偏差b=0.2390、σ2=1。拟合结果如图14(a)所示。热伸长率变化明显。热伸长率的快速剧烈变化对误差模型的预测性能提出了很高的要求。然后比较预测性能,如图14(b)所示。ilms
‑
dshoa
‑
drlstmn、ilms
‑
dshoa
‑
lstmn、ilms
‑
drlstmn、ilms
‑
bp、ilms
‑
mlra和ilms
‑
lssvm模型的残余波动范围在[
‑
0.9667μm,1.0864μm],[
‑
1.9725μm,1.9858μm],[
‑
0.9326μm,1.5212μm],[
‑
1.3135μm,0.9222μm],[
‑
2.9544μm,4.2247μm],和[
‑
1.18031.91μm]可以看出,ilms
‑
dshoa
‑
drlstmn模型的残余波动小于其他模型。此外,ilms
‑
mlra 的残余波动最大,因为ilms
‑
mlra 模型无法建立非线性关系。ilms
‑
dshoa
‑
lstmn和ilms
‑
drlstmn模型的拟合能力比ilms
‑
dshoa
‑
drlstmn差。然后验证了所提出的drlstmn和dshoa的有效性。drlstmn的参数优化是必要的。
[0231]
计算评价指标见表3。所提出的ilms
‑
dshoa
‑
drlstmn的计算时间为23.64s,由于ilms、drlstmn和dshoa之间的相互作用,计算时间比其他模型长。所提出的ilms中的非线性计算是不可避免的。提出的dshoa 是多目标优化模型,drlstmn是深度学习网络。与ilms
‑
dshoa
‑
lstmn和ilms
‑
drlstmn模型相比,ilms、drlstmn和dshoa之间的交互导致ilms
‑
dshoa
‑
drlstmn的计算时间较长。ilms
‑
mlra的计算时间为2.85s,是上述模型中最短的,因
为ilms
‑
mlra模型没有网络传播和非线性计算。ilms
‑
bp和ilms
‑
mlra模型的计算时间分别为4.69s和4.27s。对于ilms
‑
bp模型,存在非线性计算和网络传播。对于ilms
‑
lssvm,存在非线性计算。所以ilms
‑
bp和ilms
‑
lssvm的计算时间比ilms
‑
mlra长。ilms
‑
bp和ilms
‑
lssvm不是深度学习模型,那么ilms
‑
bp和ilms
‑
lssvm的计算时间比ilms
‑
dshoa
‑
drlstmn和ilms
‑
drlstmn的计算时间短。ilms
‑
dshoa
‑
drlstmn、ilms
‑
drlstmn、ilms
‑
dshoa
‑
lstmn、ilms
‑
bp、ilms
‑
mlra和ilms
‑
lssvm模型的拟合能力分别为98.56%、98.29%、97.23%、98.34%、95.34%和98.29%,分别。可以看出ilms
‑
dshoa
‑
drlstmn的拟合能力最好,ilms
‑
drlstmn、ilms
‑
bp、ilms
‑
lssvm的拟合能力与ilms
‑
dshoa
‑
drlstmn的拟合能力相当.ilms
‑
mlra 的拟合能力在上述模型中是最差的,因为第2节中显示的非线性关系和记忆行为无法表征。ilms
‑
drlstmn和ilms
‑
dshoa
‑
drlstmn的拟合能力比ilms
‑
dshoa
‑
lstmn更优秀,因为深度残差块可以挖掘误差数据中潜在的非线性关系,并且因为dshoa 可以增加与ilms
‑
dshoa
‑
lstmn的匹配度。误差和模型参数。所以ilms
‑
dshoa
‑
drlstmn误差模型的预测效果优于其他模型。
[0232]
表3.评价指标
[0233][0234]
2.2、迁移学习模型
[0235]
误差规律通常体现在误差模型的结构和参数上。而且,误差模型从误差信号中提取的特征是相似的和继承的。这些特征不仅针对单一工况下的机床数据集,而且可以应用于不同工况下不同机床的误差预测。这也保证了使用迁移学习方法学习隐藏在误差数据中的潜在规律的可行性和有效性。在证明了迁移学习用于误差预测的可行性之后,有一个重要的问题需要解决。即给定一个目标域,如何在相似的源域下转移?这涉及到迁移学习的三种基本方法,包括基于样本的迁移、基于特征的迁移和基于模型的迁移。基于样本的迁移学习通过调整重要样本的权重来匹配原始模型。基于特征的迁移学习将目标域数据和源域数据转换为相同的分布式特征空间。这两种方法通常使用传统的机器学习。模型,它们的传输效果是平均的。本实施例使用基于模型的迁移学习,并且可以与深度学习相结合。使用大量误差数据训练预训练模型,为机床#1构建ilms
‑
dshoa
‑
drlstmn,然后将ilms
‑
dshoa
‑
drlstmn模型应用于目标域数据,两个域共享相同的结构和参数。通过区分不同层次的相似性,可以将源领域的知识转移到目标领域。在实践中,根据原始数据集和目标数据集的规模和相似度进行不同的处理,如图15所示。
[0236]
目标数据集体积小,与原始数据集相似度高。根据图15,只根据实际情况调整了dense层。5.1节建立的误差预测模型的训练需要大量的实验数据。但是实验数据的采集比较耗时,往往采集一组实验数据需要长达一天的时间。一个实验完成后,不能立即在机床上进行下一个实验。需要等待机床冷却,冷却过程耗时。因此,一天只能得到一组实验数据。不同机床的热误差不同,不同机床的热误差规律是相同的。原因如下:不同机床的基本结构相似,不同机床的主要热源是轴承、丝杠螺母、滚动导轨和伺服电机。因此,根据上述预训练模型的微调密集层,采用迁移学习将为机床#1建立的误差模型迁移到机床#2的误差模型,然
后迁移学习模型是可行的使用从机床#2获得的少量实验数据进行再训练。迁移学习模型的实现过程如图16所示。
[0237]
可以看出,使用迁移学习进行误差预测和控制的主要优点如下:
[0238]
1)迁移学习需要较少的误差数据进行训练
[0239]
对于机床#1,单一工况下的误差预测实验得到了大量的误差数据,利用该数据训练ilms
‑
dshoa
‑
drlstmn误差模型,按照5.1节可以达到很好的预测效果。然后在对机床#1的网络模型改动很小的情况下得到机床#2的模型,模型再训练不再需要机床#2的大量误差数据。
[0240]
2)带有迁移学习的误差预测模型的泛化能力变得更好
[0241]
构建具有出色泛化能力的模型是机器学习中最困难和最重要的部分之一。迁移学习也提高了模型对新目标机器未经训练的误差数据的出色预测能力,因为预先训练的误差预测模型是有目的地训练的,因此模型可以提取误差数据的共同特征。当模型转移到新的目标机器和工作条件下时,由于模型只能从极其通用的知识库中增量学习,因此几乎不会发生过拟合,从而保证模型的泛化能力。
[0242]
3)迁移学习更容易调整误差预测模型的参数
[0243]
迁移学习可以在误差预测模型中重用训练过的特定复杂结构和优化权重,避免从头开始繁琐的训练过程。进行dense层的调整以重新训练模型。而且训练参数大大减少,训练过程更加稳定。
[0244]
获得机床#2的热行为,如图17所示。奇异值很明显,有效的热信息淹没在高频噪声中。然后使用所提出的ilms来消除奇异值和高频噪声。本实施例的机床#2即为目标设备。
[0245]
在5.1节中,ilms
‑
dshoa
‑
drlstmn误差模型是基于机床#1的误差数据建立的。本实施例只改变了dense层的结构,dense层以外的结构和参数是固定的。所以本实施例只改变了dense层的参数,使用新机床#2的小体积误差数据作为训练集,训练权重w_out和偏差b_out,其他参数保持不变。然后得到机床#2的迁移学习误差模型,迁移学习误差模型参数与ilms
‑
dshoa
‑
drlstmn误差模型参数相同,如表2所示。然后使用迁移学习模型来预测热伸长率,计算预测误差和实测误差之间的残差,如图18所示。用于训练迁移学习模型的数据量远小于使用的数据量训练原始模型。更重要的是,残差在[
‑
2.0875μm,1.7821μm],[
‑
2.3716μm,1.4956μm],[
‑
2.0444μm,2.2582μm],[
‑
3.3831μm,3.0002μm],[
‑
3.0002.03μm],[
‑
2.3716μm,1.4956μm],2.3920μm]和[
‑
2.6536μm,2.9299μm]分别用于ilms
‑
dshoa
‑
drlstmn、ilms
‑
drlstmn、ilms
‑
dshoa
‑
lstmn、ilms
‑
bp、ilms
‑
mlra和ilms
‑
lssvm模型。与拟合性能相比,上述模型的残余波动幅度有所增加。而且ilms
‑
dshoa
‑
drlstmn模型的残差波动幅度最小,ilms
‑
lssvm和ilms
‑
bp模型的残差波动幅度大于其他模型。ilms
‑
dshoa
‑
drlstmn模型的残差波动幅度小于ilms
‑
drlstmn和ilms
‑
dshoa
‑
lstmn模型的残差波动幅度。
[0246]
计算时间、rmse、mse、mae、拟合能力η等评价指标对预测性能进行评价,如表4所示。ilms
‑
dsho
‑
drlstmn、ilms
‑
drlstmn、ilms
‑
dsho
‑
lstmn、ilms
‑
bp、ilms
‑
mlra和ilms
‑
dsho
‑
drlstmn的计算时间分别为5.57s、4.68s、4.86s、3.25s、1.97s和3.44s ilms
‑
lssvm模型,分别。迁移学习模型的计算时间远小于原始模型的计算时间。ilms
‑
dsho
‑
drlstmn、ilms
‑
drlstmn、ilms
‑
dsho
‑
lstmn、ilms
‑
bp、ilms
‑
mlra和ilms
‑
lssvm模型的预测能力分别为98.37%、97.95%、97.60%、94.51%、95.41%。和96.02%,分别。与拟合能力相比,上述
模型的预测能力有所下降。ilms
‑
dsho
‑
drlstmn的预测能力是最好的。ilms
‑
dshoa
‑
drlstmn、ilms
‑
drlstmn和ilms
‑
dshoa
‑
lstmn预测能力的下降几乎没有减少,因为热误差的非线性和记忆行为被表征。ilms
‑
bp和ilms
‑
lssvm的预测能力下降是明显的。ilms
‑
mlra 模型的预测能力几乎没有改变。ilms
‑
dsho
‑
drlstmn误差预测模型可以有效克服网络深度过大导致预测效果下降的情况。
[0247]
表4.迁移学习模型的评价指标
[0248][0249]
2.3、模型验证
[0250]
该模型可以通过实际加工进行验证,然后根据加工参数用每个控制模型加工210个零件,如图19所示。主要关注尺寸d1和d2的几何精度。加工参数如下:主轴系统转速为4000r/min。x、y、z轴进给速度分别为0.5m/min、0.6m/min、0.4m/min。切削深度为50μm。零件材料为astm1045碳钢。
[0251]
在加工过程中,迁移学习模型被视为控制模型。然后比较加工零件的几何误差,如图20所示。在不控制热误差时,d1和d2的几何误差波动范围分别为[
‑
16μm,17μm]和[
‑
12μm,16μm]]。当用ilms
‑
dsho
‑
drlstmn的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
4μm,4μm]和[
‑
3μm,3μm]。当用ilms
‑
drlstmn的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
6μm,6μm]和[
‑
6μm,6μm]。当用ilms
‑
dsho
‑
lstmn的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
9μm,6μm]和[
‑
9μm,10μm]。当用ilms
‑
bp的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
13μm,13μm]和[
‑
10μm,11μm]。当用ilms
‑
mlra的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
8μm,14μm]和[
‑
11μm,11μm]。当用ilms
‑
lssvm的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
11μm,11μm]和[
‑
10μm,10μm]。可以看出,以ilms
‑
dsho
‑
drlstmn为控制模型的d1和d2的几何误差波动幅度小于以其他模型为控制模型的几何误差。然后验证了基于ilms
‑
dsho
‑
drlstmn的迁移学习模型的有效性。以ilms
‑
dsho
‑
drlstmn的转移学习模型为控制模型的d1和d2的几何误差波动幅度小于以ilms
‑
drlstmn的转移学习模型为控制模型的几何误差,进而验证了提议的dsho被证明。超参数,包括epoch size和批量大小,通过提出的dsho进行优化,提高预测性能。以ilms
‑
dsho
‑
drlstmn的转移学习模型为控制模型的d1和d2的几何误差波动幅度小于以ilms
‑
dsho
‑
lstmn的转移学习模型为控制模型的几何误差的波动范围,进而验证了有效性所提出的drlstmn的验证。drlstmn实现了误差数据的深度表达。以ilms
‑
drlstmn的转移学习模型为控制模型的d1和d2的几何误差波动范围小于以ilms
‑
dsho
‑
lstmn的转移学习模型为控制模型的,因为提出的drlstmn要大得多。在预测精度方面优于lstmn。ilms
‑
dsho
‑
drlstmn、ilms
‑
drlstmn和ilms
‑
dsho
‑
lstmn的迁移学习模型作为控制模型的d1和d2的几何误差波动幅度小于ilms的迁移学习模型
‑
bp、ilms
‑
mlra和ilms
‑
lssvm作为控制模型,因为传统的误差模型没有很强的记忆性能。
[0252]
然后计算d1和d2几何误差的最大值(max)、最小值(min)和绝对平均值(am),如表5
中所列。ilms
‑
dsho
‑
drlstmn的迁移学习模型的d1和d2的几何误差的am比其他模型作为控制模型的要小得多,进而说明ilms
‑
dsho
‑
drlstmn的迁移学习模型的有效性已完全验证。以ilms
‑
drlstmn和ilms
‑
dsho
‑
lstmn的迁移学习模型为控制模型的d1和d2的几何误差am大于以ilms
‑
dsho
‑
drlstmn为控制模型的几何误差的am。然后验证了所提出的ilms
‑
dsho
‑
drlstmn的有效性。上述三种模型的控制效果优于传统模型,包括ilms
‑
lssvm、ilms
‑
mlra 和ilms
‑
bp,因为上述三种模型都可以表征长期记忆行为,那么误差模型的记忆性能对于热误差的高度鲁棒性预测和控制极其重要。ilms
‑
lssvm的迁移学习模型的控制效果优于ilms
‑
mlra的迁移学习模型,ilms
‑
bp的迁移学习模型的控制效果最差。
[0253]
表5.几何误差
[0254][0255]
3、结论
[0256]
为了减少热误差,基于drlstmn实现了基于迁移学习的热误差预测和控制,进行传热和误差机理建模以证明热误差的长期记忆行为;然后提出ilms方法来过滤高频噪声并排除原始误差数据中的奇异值。预先激活的残差块旨在实现误差数据的深度表示。提出了dsho方法来优化drlstmn的batch size和epoch size。然后,提出ilms
‑
dsho
‑
drlstmn误差模型以提高其预测精度。最后,使用预训练的ilms
‑
dsho
‑
drlstmn误差模型的微调密集层提出迁移学习模型。主要结论如下:
[0257]
(1)传热和误差机理建模有效地反映了热误差的记忆行为。ilms可以有效地过滤高频噪声并排除原始误差数据中的奇异值。提出的dshoa可有效优化drlstmn的超参数。引入混沌伯努利映射实现混沌初始化策略,利用dmo实现对当前种群的变异操作,提高优化精度。非线性控制因子旨在加快收敛速度。
[0258]
(2)设计了一个预激活的残差块以提高原始残差块的综合性能,并结合lstmn提出drlstmn。drlstmn的超参数,包括batch size和epoch size,由dshoa优化。最后,提出了ilms
‑
dshoa
‑
drlstmn误差模型。ilms
‑
dsho
‑
drlstmn、ilms
‑
drlstmn、ilms
‑
dsho
‑
lstmn、ilms
‑
bp、ilms
‑
mlra和ilms
‑
lssvm模型的拟合能力分别为98.56%、98.29%、97.23%、98.34%、95.49%和98.29%,分别。ilms
‑
dshoa
‑
drlstmn的拟合能力强于ilms
‑
drlstmn。ilms
‑
dshoa
‑
drlstmn的迁移学习模型的预测能力也强于ilms
‑
drlstmn的迁移学习模型。
[0259]
(3)对于目标设备(2#机床),迁移学习能够用小数据量训练误差模型。微调的方法用于迁移学习。只改变了dense层的结构,dense层以外的结构是固定的。ilms
‑
dsho
‑
drlstmn、ilms
‑
drlstmn、ilms
‑
dsho
‑
lstmn、ilms
‑
bp、ilms
‑
mlra和ilms
‑
lssvm模型的迁移学习模型的预测能力分别为98.37%、97.95%、97.60%、94.51%、95.41%和96.02%。残留量范围为[
‑
1.8165μm,1.2653μm],[
‑
2.3716μm,1.6088μm],[
‑
2.0444μm,2.2582μm],[
‑
3.3831μm,3.1770μm,7,32.7μm],[
‑
2.0444μm,2.2582μm]]和[
‑
2.7469μm,3.6898μm]分别用于ilms
‑
dsho
‑
drlstmn、ilms
‑
drlstmn、ilms
‑
dsho
‑
lstmn、ilms
‑
bp、ilms
‑
mlra和ilms
‑
lssvm模型。
[0260]
(4)ilms
‑
dsho
‑
drlstmn的迁移学习模型可以实现对新型机床的误差控制。以ilms
‑
dsho
‑
drlstmn为控制模型的d1和d2几何误差的波动幅度小于以其他模型为控制模型的几何误差。当不控制热误差时,d1和d2几何误差的波动范围分别为[
‑
16μm,17μm]和[
‑
12μm,16μm]。当用ilms
‑
dsho
‑
drlstmn的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
4μm,4μm]和[
‑
3μm,3μm]。当用ilms
‑
drlstmn的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
6μm,6μm]和[
‑
6μm,6μm]。当用ilms
‑
dsho
‑
lstmn的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
9μm,6μm]和[
‑
9μm,10μm]。当用ilms
‑
bp的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
13μm,13μm]和[
‑
10μm,11μm]。当用ilms
‑
mlra的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
8μm,14μm]和[
‑
11μm,11μm]。当用ilms
‑
lssvm的迁移学习模型控制热误差时,d1和d2的几何误差波动范围分别为[
‑
11μm,11μm]和[
‑
10μm,10μm]。
[0261]
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。