一种基于LSTM的MR阻尼器的逆向映射模型

文档序号:32666685发布日期:2022-12-24 01:09阅读:94来源:国知局
一种基于LSTM的MR阻尼器的逆向映射模型
一种基于lstm的mr阻尼器的逆向映射模型
技术领域
1.本发明涉及斜拉桥的拉索振动控制技术领域,特别涉及一种基于lstm的mr阻尼器的逆向映射模型。


背景技术:

2.近年来,计算资源剧烈增长,数据制备速率迅提升,带动了人工智能的迅猛发展。目前,人工智能已在图像处理、语言识别数据分类、适应非线性映射、适应非线性映射函数值拟合等各个领域产生了深远的影响,神经网络通过分层特征来分析深层和复杂的非线性关系,适合分析处理影响因素多、状态不稳定、结构复杂的非线性问题,在mr阻尼器的建模和控制方面具有重要应用价值。
3.半主动控制策略首先需要建立磁流变阻尼器的逆向映射模型作为系统中的控制器,然而磁流变阻尼器的输入出之间存在高度非线性关系,通过建立、求解理论数学模型非常困难且耗时,难以满足控制系统的时效性要求,无法实现快速、高效的控制,半主动控制的优势在实际应用中没有得到充分的发挥。因此,建立能够快速获取电流值的逆向映射替代模型是实现高精度控制关键。


技术实现要素:

4.本发明提供了一种基于lstm的mr阻尼器的逆向映射模型,以实现结构的半主动控制,解决了基于mr阻尼器半主动控制系统控制器设计困难的问题,充分发挥半主动控制装置的优势,到理想的拉索减振效果。
5.本发明提供了一种基于lstm的mr阻尼器的逆向映射模型,包括输入层、输出层和隐藏层,其中,所述隐藏层的数量为多个,每个隐藏层包括多个网络单元,每个网络单元包括输入门、遗忘门、输出门和单元状态,在单元状态更新过程中,所述输入门用于控制当前时刻的输入信息保存到当前时刻单元状态中的占比,所述遗忘门用于控制上一时刻的单元状态保留到当前时刻单元状态中的占比,所述输出门用于控制当前的单元状态c
t
能够作为当前的输出值h
t
的数量,所述输出层还连接一个单层全连接神经网络用于输出特征;
6.在模型训练前,设定的超参数包括批处理大小、时间步长、隐藏层单元个数、学习率初始值、网络层数、激活函数和损失函数;所述全连接神经网络以relu函数作为激活函数,隐藏层的激活函数为tanh函数;mr阻尼器正常工作情况下,所述输入层用于输入活塞的位移、速度和控制力,输出层用于输出控制电流值,并采用均方根误差函数作为网络训练的损失函数。
7.进一步地,网络反向传播的优化方法,包括:
8.s1、更新训练步数为t=t+1;
9.s2、抽取m组训练数据样本、输入为{x
(1)
,

,x
(m)
}、输出为{y
(1)
,

,y
(m)
},将输入输出作为一个训练批次,计算当前训练步t的梯度g
t

[0010][0011]
其中,θ0为参数向量θ的初始值;
[0012]
s3、采用历史梯度的加权平均值对当前的梯度值进行修正,得到梯度更新值,并随机对一阶矩估计进行更新:
[0013]st
=ρ1s
t-1
+(1-ρ1)g
t
[0014]
其中,s0一阶矩估计s的初始值;
[0015]
s4、对二阶矩估计进行更新:
[0016]rt
=ρ2r
t-1
+(1-ρ2)g
t
⊙gt
[0017]
其中,r0为二阶矩估计r的初始值;
[0018]
s5、对一阶、二阶矩估计进行修正:
[0019][0020][0021]
其中,ρ1、ρ2用于控制矩估计的指数衰减率;
[0022]
s6、更新参数向量:
[0023][0024]
其中,ε为步长(初始学习率);δ用于避免分母为0,维护数值计算稳定的小常数;
[0025]
s7、进入下一个批次的训练。
[0026]
进一步地,对网络超参数进行优化的方法,包括:
[0027]
设置粒子群参数;其中,所述粒子群参数包括粒子群规模、粒子维度、惯性权重、学习因子和迭代次数;
[0028]
随机初始化粒子的位置和速度,得到个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值;
[0029]
判断所述个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值是否满足结束条件;
[0030]
若所述个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值满足结束条件,则输出最优解;其中,所述结束条件为达到苏搜狐迭代次数;
[0031]
若所述个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值不满足结束条件,则更新每个粒子的速度和位置,并计算适应度值;
[0032]
当全局最优适应度值和位置更新时,更新惯性权重、迭代次数和学习因子,返回所述判断所述个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值是否满足结束条件的步骤。
[0033]
进一步地,所述更新每个粒子的速度和位置中,公式为:
[0034][0035]
[0036]
其中,w为速度惯性权重,c1、c2为学习因子,r1、r2为均匀分布在0~1之间的随机数;
[0037]
进一步地,所述遗忘门的前向计算公式为:
[0038]ft
=σ(wf·
[h
t-1
,x
t
]+bf)
[0039]
其中,wf、bf、σ分别为遗忘门的权重矩阵,偏置序列以及激活函数;
[0040]
所述输入门的前向计算公式为:
[0041]it
=σ(wi·
[h
t-1
,x
t
]+bi)
[0042][0043][0044]
其中,wi、bi、σ分别为输入门的权重矩阵、偏置序列以及激活函数;
[0045]
所述输出门的前向计算公式为:
[0046]ot
=σ(wo·
[h
t-1
,x
t
]+bo)
[0047]ht
=o
t
×
tanh(c
t
)
[0048]
误差反向传播公式为:
[0049][0050]
本发明的有益效果为:
[0051]
本发明建立了基于lstm的mr阻尼器的逆向映射模型,lstm神经网络模型不仅能够很好地拟合me阻尼器的逆向映射特征,还能够避免复杂的数学模型建立,比数值模型和现象模型更加遍历,且训练后的lstm模型映射速度更快,能够满足控制系统的时效性要求;同时具有较好的泛化性,经过训练后在一定程度上可以推断出训练数据范围之外的数据关系,具有一定的鲁棒性和较好的噪声过滤效果。
附图说明
[0052]
图1为本发明基于lstm的mr阻尼器的逆向映射模型的结构示意图;
[0053]
图2为本发明中网络单元的内部结构示意图。
[0054]
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
[0055]
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
[0056]
由于大跨斜拉桥的拉索在动力荷载作用下极易发生大幅的振动,而mr阻尼器的独特优势使其能够在拉索的振动控制中发挥很好的效果。但由于磁流变阻尼器的运动机理不够明确、控制策略不够完善,因此探寻更加高效的振动控制措施非常有必要。本发明提出采用lstm建立的mr阻尼器的逆向模型作为控制系统的控制器,以便将最优控制算法(lqr)算出的最优控制力转化为输入电流信号,实现拉索的振动控制。
[0057]
如图1-2所示,本发明提供了一种基于lstm的mr阻尼器的逆向映射模型,包括输入层、输出层和隐藏层,其中,所述隐藏层的数量为多个,每个隐藏层包括多个网络单元,每个网络单元包括输入门、遗忘门、输出门和单元状态,输入门、遗忘门、输出门避免梯度离散和
梯度爆炸问题,能够更有效的处理长距离时序信息;在单元状态更新过程中,所述输入门用于控制当前时刻的输入信息保存到当前时刻单元状态中的占比,所述遗忘门用于控制上一时刻的单元状态保留到当前时刻单元状态中的占比,所述输出门用于控制当前的单元状态c
t
能够作为当前的输出值h
t
的数量;所述输出层还连接一个单层全连接神经网络用于输出特征;stm网络结构沿着时间轴展开,其t-1时刻隐藏层的信息h
t-1
、c
t-1
会以记忆的形式传递到t时刻,使多个时间步上的信息能够共享,保证了时间序列信息的高效利用。
[0058]
模型中,所述遗忘门的前向计算公式为:
[0059]ft
=σ(wf·
[h
t-1
,x
t
]+bf)
[0060]
其中,wf、bf、σ分别为遗忘门的权重矩阵,偏置序列以及激活函数(一般选用sigmoid函数);
[0061]
所述输入门的前向计算公式为:
[0062]it
=σ(wi·
[h
t-1
,x
t
]+bi)
[0063][0064][0065]
其中,wi、bi、σ分别为输入门的权重矩阵、偏置序列以及激活函数;
[0066]
所述输出门的前向计算公式为:
[0067]ot
=σ(wo·
[h
t-1
,x
t
]+bo)
[0068]ht
=o
t
×
tanh(c
t
)
[0069]
其计算过程用矩阵形式表示为:
[0070][0071]h(t)
=o
(t)
×
tanh(c
(t)
)
[0072][0073]
误差反向传播公式为:
[0074][0075][0076]
误差反向传播函数为四项累加形式,四个累加项同时很大或同时很小的概率较低,很大程度上降低了梯度爆炸以及梯度离散发生的概率。
[0077]
神经网络结构中“参数”和“超参数”共同控制网络模型的性能,其中,参数包括:权值矩阵、偏置序列,即网络内部变量,其在网络的训练过程中通过误差反向传递进行自适应调节,优化网络对非线性数据拟合的效果;超参数包括:输入的特征数量、输出信号的数量、
结构超参数(隐藏层的层数、激活函数的类型、时间步长等)、训练算法超参数(优化算法、学习率、批处理大小和正则化方法等)、损失函数等。外层的超参数优化能够更好的解决内层问题,提高模型的训练效率和拟合精度。
[0078]
在模型训练前,设定的超参数包括批处理大小、时间步长、隐藏层单元个数、学习率初始值、网络层数、激活函数和损失函数;
[0079]
定义模型的输入和输出:mr阻尼器正常工作情况下,外部输入为活塞的位移、速度和控制力,输出为控制电流值,模型为多输入但输出模型,并采用均方根误差函数作为网络训练的损失函数,均方根误差(mean square error,简称mse),在误差值较大时,mse损失函数能起到梯度放大的作用,并伴随着误差的降低逐渐趋近于零,使神经网络在训练结束时能够更加精确。
[0080]
在输出层后连接一个单层全连接神经网络用于输出特征,所述全连接神经网络以relu函数作为激活函数,隐藏层的激活函数为tanh函数。
[0081]
网络反向传播的优化方法,包括:
[0082]
s1、更新训练步数为t=t+1;
[0083]
s2、抽取m组训练数据样本、输入为{x
(1)
,

,x
(m)
}、输出为{y
(1)
,

,y
(m)
},将输入输出作为一个训练批次,计算当前训练步t的梯度g
t

[0084][0085]
其中,θ0为参数向量θ的初始值,一般使用随机值;
[0086]
s3、采用历史梯度的加权平均值对当前的梯度值进行修正,消除变量更新时的不稳定现象,得到考虑动量的、较稳定的梯度更新值,并随机对一阶矩估计进行更新:
[0087]st
=ρ1s
t-1
+(1-ρ1)g
t
[0088]
s4、二阶矩估计的更新考虑历史梯度l2范数,且基于每个权重参数的学习率不同,其中频繁更新的梯度将被赋予的学习率较小,而长期不变的梯度则会被赋予较大的学习率。在数据分布稀疏时,更好地利用特征信息,比标准的sgd算法收敛得更快,对二阶矩估计进行更新为:
[0089]rt
=ρ2r
t-1
+(1-ρ2)g
t
⊙gt
[0090]
其中,s0、r0为一阶和二阶矩估计s、r的初始值,一般默认为0;
[0091]
s5、对一阶、二阶矩估计进行修正:
[0092][0093][0094]
其中,ρ1、ρ2用于控制矩估计的指数衰减率,取值范围在[0,1)之间;
[0095]
s6、更新参数向量:
[0096][0097]
其中,ε为步长(初始学习率),一般默认为0.001;δ用于避免分母为0,维护数值计算稳定的小常数,默认取10-8

[0098]
s7、进入下一个批次的训练。
[0099]
由于对于网络模型超参数的选择通常依赖研究者经验和大量实结果,需要耗费大量的人力、时间和计算资源。时间步长、批处理大小、隐藏层数、学习率等参数很难人为确定最优值,因此,确定对网络超参数进行优化的方法,开始优化前,根据需要优化的参数数量,指定一个d维的搜索空间,设置由多个粒子构成的种群,记为x={x1,x2,x3,

,xm},xi=[x
i1
,x
i2
,x
i3
,

,x
id
],t时刻xi的特征信息表示为:
[0100]
位置:速度:个体最优位置:个体最优位置:全局最优位置:
[0101]
选取三个超参数作为优化目标,包括批处理长度、时间步长以及隐藏层单元数目。为了减少训练时间,根据超参数的常用取值范围设置各粒子的速度和搜索范围,定义适应度函数f
fit
=(1-p
acc
)
×
100%,评估优化结果,其中p
acc
为网络预测精度,同时设置20个粒子并行优化,则对网络超参数进行优化的方法,包括:
[0102]
设置粒子群参数;其中,所述粒子群参数包括粒子群规模、粒子维度、惯性权重、学习因子和迭代次数;
[0103]
随机初始化粒子的位置和速度,得到个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值;
[0104]
判断所述个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值是否满足结束条件;
[0105]
若所述个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值满足结束条件,则输出最优解;其中,所述结束条件为达到苏搜狐迭代次数;
[0106]
若所述个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值不满足结束条件,则更新每个粒子的速度和位置,并计算适应度值;
[0107]
当全局最优适应度值和位置更新时,更新惯性权重、迭代次数和学习因子,返回所述判断所述个体历史最优位置、全局历史最优位置、个体历史最优适应值、全局历史最优适应值是否满足结束条件的步骤。
[0108]
其中,所述更新每个粒子的速度和位置中,在t+1时刻,粒子以t时刻的全局信息为依据,对下一个时间步的速度和位置进行更新,更新后的速度和位置信息表示为:
[0109][0110][0111]
其中,w为速度惯性权重,用于控制粒子在全局和局部之间的有效平衡;c1、c2为学习因子,分别控制自身最优位置和全局最优位置在粒子状态更新中的重要性占比;r1、r2为均匀分布在0~1之间的随机数。为了避免粒子进行过度搜索,将速度和位置分别限制在[-v
max
,v
max
]和[-x
max
,x
max
]以内,能够根据训练数据的特征,快速、准确地确定最优的超参数结构,提高网络的学习效率和可靠度。
[0112]
除了采用均方根误差衡量模型的好坏,还可以采用决定系数r2(coefficient of determination,又称r2分数)判断模型的优劣程度。r2分数为回归平方和与总平方和的比值,r2分数取值通常在0到1之间,其值反映了模型预测值对真值部分的贡献程度,其值越靠
近1,表明拟合效果越好,r2的数学表达式为:
[0113][0114]
其中,y'i为模型预测值,yi为真值,分别为真值和预测值的平均值。
[0115]
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
[0116]
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1