SISO偏格式无模型控制器基于偏导信息的参数自整定方法与流程

文档序号:14248485阅读:228来源:国知局
SISO偏格式无模型控制器基于偏导信息的参数自整定方法与流程

本发明属于自动化控制领域,尤其是涉及一种siso偏格式无模型控制器基于偏导信息的参数自整定方法。



背景技术:

无模型控制器是一种新型的数据驱动控制方法,不依赖被控对象的任何数学模型信息,仅依赖于被控对象实时测量的输入输出数据进行控制器的分析和设计,并且实现简明、计算负担小及鲁棒性强,对未知非线性时变系统也能够进行很好的控制,具有良好的应用前景。

无模型控制器有多种实现方法,其中siso(singleinputandsingleoutput,单输入单输出)偏格式无模型控制器是无模型控制器的主要实现方法之一。siso偏格式无模型控制器的理论基础,由侯忠生与金尚泰在其合著的《无模型自适应控制—理论与应用》(科学出版社,2013年,第68页)中提出,其控制算法如下:

其中,u(k)为k时刻的控制输入;δu(k)=u(k)-u(k-1);e(k)为k时刻的系统误差;为k时刻的伪梯度估计值,的第i个分量(i=1,…,l);l为控制输入线性化长度常数,且为大于1的整数;λ为惩罚因子;ρ1,…,ρl为步长因子。

目前,siso偏格式无模型控制器在实际投用前需要依赖经验知识来事先设定惩罚因子λ和步长因子ρ1,…,ρl等参数的数值,在实际投用过程中也尚未实现惩罚因子λ和步长因子ρ1,…,ρl等参数的在线自整定。参数有效整定手段的缺乏,不仅使siso偏格式无模型控制器的使用调试过程费时费力,而且有时还会严重影响siso偏格式无模型控制器的控制效果,制约了siso偏格式无模型控制器的推广应用。

为此,为了打破制约siso偏格式无模型控制器推广应用的瓶颈,本发明提出了一种siso偏格式无模型控制器基于偏导信息的参数自整定方法。



技术实现要素:

为了解决背景技术中存在的问题,本发明的目的在于,提供一种siso偏格式无模型控制器基于偏导信息的参数自整定方法。

为此,本发明的上述目的通过以下技术方案来实现,包括以下步骤:

步骤(1):确定siso偏格式无模型控制器的控制输入线性化长度常数l,l为大于1的整数;siso偏格式无模型控制器参数包含惩罚因子λ和步长因子ρ1,…,ρl;确定siso偏格式无模型控制器待整定参数,所述siso偏格式无模型控制器待整定参数,为所述siso偏格式无模型控制器参数的部分或全部,包含惩罚因子λ和步长因子ρ1,…,ρl的任意之一或任意种组合;确定bp神经网络的输入层节点数、隐含层节点数、输出层节点数,所述输出层节点数不少于所述siso偏格式无模型控制器待整定参数个数;初始化bp神经网络的隐含层权系数、输出层权系数;

步骤(2):初始化前一时刻的偏导信息,作为bp神经网络的输入;

步骤(3):将当前时刻记为k时刻,基于系统输出期望值与系统输出实际值,采用系统误差计算函数计算得到k时刻的系统误差,记为e(k);

步骤(4):基于所述bp神经网络的输入,bp神经网络进行前向计算,计算结果通过输出层输出,得到所述siso偏格式无模型控制器待整定参数的值;

步骤(5):基于步骤(3)得到的系统误差e(k)、步骤(4)得到的所述siso偏格式无模型控制器待整定参数的值,采用siso偏格式无模型控制器的控制算法,计算得到siso偏格式无模型控制器针对被控对象在k时刻的控制输入u(k);

步骤(6):基于步骤(5)得到的所述控制输入u(k),计算所述控制输入u(k)分别针对各个所述siso偏格式无模型控制器待整定参数在k时刻的梯度信息,具体计算公式如下:

当所述siso偏格式无模型控制器待整定参数中包含惩罚因子λ时,所述控制输入u(k)针对所述惩罚因子λ在k时刻的梯度信息为:

当所述siso偏格式无模型控制器待整定参数中包含步长因子ρ1时,所述控制输入u(k)针对所述步长因子ρ1在k时刻的梯度信息为:

当所述siso偏格式无模型控制器待整定参数中包含步长因子ρi且2≤i≤l时,所述控制输入u(k)针对所述步长因子ρi在k时刻的梯度信息为:

其中,δu(k)=u(k)-u(k-1),为k时刻的伪梯度估计值,的第i个分量(i=1,…,l);

步骤(7):以系统误差函数的值最小化为目标,采用梯度下降法,结合步骤(6)得到的所述梯度信息,进行系统误差反向传播计算,更新bp神经网络的隐含层权系数、输出层权系数,作为后一时刻bp神经网络进行前向计算时的隐含层权系数、输出层权系数;

步骤(8):将步骤(6)计算得到的所述控制输入u(k)分别针对各个所述siso偏格式无模型控制器待整定参数在k时刻的梯度信息依序记为前一时刻的偏导信息,即:当所述siso偏格式无模型控制器待整定参数中包含惩罚因子λ时则在k时刻的梯度信息之一记为前一时刻的偏导信息之一当所述siso偏格式无模型控制器待整定参数中包含步长因子ρi且1≤i≤l时则在k时刻的梯度信息之一记为前一时刻的偏导信息之一所述前一时刻的偏导信息作为后一时刻bp神经网络进行前向计算时所述bp神经网络的输入;

步骤(9):所述控制输入u(k)作用于被控对象后,得到被控对象在后一时刻的系统输出实际值,返回到步骤(3),重复步骤(3)到步骤(9)。

在采用上述技术方案的同时,本发明还可以采用或者组合采用以下进一步的技术方案:

所述步骤(3)中的所述系统误差计算函数的自变量包含系统输出期望值与系统输出实际值。

所述步骤(3)中的所述系统误差计算函数采用e(k)=y*(k)-y(k),其中y*(k)为k时刻设定的系统输出期望值,y(k)为k时刻采样得到的系统输出实际值;或者采用e(k)=y*(k+1)-y(k),其中y*(k+1)为k+1时刻的系统输出期望值,y(k)为k时刻采样得到的系统输出实际值。

所述步骤(7)中的所述系统误差函数的自变量包含系统误差、系统输出期望值、系统输出实际值的任意之一或任意种组合。

所述步骤(7)中的所述系统误差函数为e2(k)+ωδu2(k),其中,e(k)为系统误差,δu(k)=u(k)-u(k-1),ω为大于或等于0的常数。

本发明提供的siso偏格式无模型控制器基于偏导信息的参数自整定方法,能够实现良好的控制效果,并有效克服惩罚因子λ和步长因子ρ1,…,ρl需要费时费力进行整定的难题。

附图说明

图1为本发明的原理框图;

图2为本发明采用的bp神经网络结构示意图;

图3为惩罚因子λ和步长因子ρ1,ρ2,ρ3同时自整定时的控制效果图;

图4为惩罚因子λ和步长因子ρ1,ρ2,ρ3同时自整定时的控制输入图;

图5为惩罚因子λ和步长因子ρ1,ρ2,ρ3同时自整定时的惩罚因子λ变化曲线;

图6为惩罚因子λ和步长因子ρ1,ρ2,ρ3同时自整定时的步长因子ρ1,ρ2,ρ3变化曲线;

图7为惩罚因子λ固定而步长因子ρ1,ρ2,ρ3自整定时的控制效果图;

图8为惩罚因子λ固定而步长因子ρ1,ρ2,ρ3自整定时的控制输入图;

图9为惩罚因子λ固定而步长因子ρ1,ρ2,ρ3自整定时的步长因子ρ1,ρ2,ρ3变化曲线。

具体实施方式

下面结合附图和具体实施例对本发明进一步说明。

图1给出了本发明的原理框图。确定siso偏格式无模型控制器的控制输入线性化长度常数l,l为大于1的整数;siso偏格式无模型控制器参数包含惩罚因子λ和步长因子ρ1,…,ρl;确定siso偏格式无模型控制器待整定参数,所述siso偏格式无模型控制器待整定参数,为所述siso偏格式无模型控制器参数的部分或全部,包含惩罚因子λ和步长因子ρ1,…,ρl的任意之一或任意种组合;在图1中,siso偏格式无模型控制器待整定参数为惩罚因子λ和步长因子ρ1,…,ρl;确定bp神经网络的输入层节点数、隐含层节点数、输出层节点数,所述输出层节点数不少于所述siso偏格式无模型控制器待整定参数个数;初始化bp神经网络的隐含层权系数、输出层权系数;将当前时刻记为k时刻,首先通过采样得到系统输出实际值y(k),将系统输出期望值y*(k)与系统输出实际值y(k)之差作为k时刻的系统误差e(k),然后将前一时刻的偏导信息作为bp神经网络的输入;bp神经网络进行前向计算,计算结果通过输出层输出,得到所述siso偏格式无模型控制器待整定参数的值;然后,基于系统误差e(k)的值、待整定参数的值,采用siso偏格式无模型控制器的控制算法,计算得到siso偏格式无模型控制器针对被控对象在k时刻的控制输入u(k);然后计算得到控制输入u(k)分别针对各个待整定参数在k时刻的梯度信息;结合所述梯度信息,以系统误差函数的值最小化为目标,图1中以e2(k)最小化为目标,更新bp神经网络的隐含层权系数、输出层权系数,作为后一时刻bp神经网络进行前向计算时的隐含层权系数、输出层权系数;将梯度信息依序记为前一时刻的偏导信息所述前一时刻的偏导信息作为后一时刻bp神经网络进行前向计算时所述bp神经网络的输入;控制输入u(k)作用于被控对象后,得到被控对象在后一时刻的系统输出实际值,然后重复上述过程,进行后一时刻的siso偏格式无模型控制器基于偏导信息的参数自整定过程。

图2给出了本发明采用的bp神经网络结构示意图。bp神经网络可以采用隐含层为单层的结构,也可以采用隐含层为多层的结构。在图2的示意图中,为简明起见,bp神经网络采用了隐含层为单层的结构,即采用由输入层、单层隐含层、输出层组成的三层网络结构,输入层节点数设为待整定参数个数(图2中待整定参数个数为l+1个),隐含层节点数6个,输出层节点数设为待整定参数个数(图2中待整定参数个数为l+1个)。输入层的节点,与偏导信息分别对应。输出层的节点,与惩罚因子λ和步长因子ρ1,…,ρl分别对应。bp神经网络的隐含层权系数、输出层权系数的更新过程具体为:以系统误差函数的值最小化为目标,图2中以e2(k)最小化为目标,采用梯度下降法,结合控制输入u(k)分别针对惩罚因子λ和步长因子ρ1,…,ρl在k时刻的梯度信息,进行系统误差反向传播计算,从而更新bp神经网络的隐含层权系数、输出层权系数。

以下是本发明的一个具体实施例。

被控对象为典型的非线性系统:

系统输出期望值y*(k)如下:

y*(k)=5sin((k-1)π/50)+2cos((k-1)π/20)

在本具体实施例中,siso偏格式无模型控制器的控制输入线性化长度常数l预设为3。

在本具体实施例中,共进行了两组试验验证。

第一组试验验证时,图2中bp神经网络的输入层节点数、输出层节点数均预设为4个,对惩罚因子λ和步长因子ρ1,ρ2,ρ3进行同时自整定,控制效果图、控制输入图、惩罚因子λ变化曲线、步长因子ρ1,ρ2,ρ3变化曲线,分别如图3、图4、图5、图6所示。结果表明,本发明的方法通过对惩罚因子λ和步长因子ρ1,ρ2,ρ3进行同时自整定,能够实现良好的控制效果,并且可以有效克服惩罚因子λ和步长因子ρ1,ρ2,ρ3需要费时费力进行整定的难题。

第二组试验验证时,首先将惩罚因子λ固定取值为第一组试验验证时惩罚因子λ的平均值,图2中bp神经网络的输入层节点数、输出层节点数均预设为3个,然后对步长因子ρ1,ρ2,ρ3进行自整定,控制效果图、控制输入图、步长因子ρ1,ρ2,ρ3变化曲线,分别如图7、图8、图9所示。结果同样表明,本发明的方法在惩罚因子λ固定时通过对步长因子ρ1,ρ2,ρ3进行自整定,能够实现良好的控制效果,并且可以有效克服步长因子ρ1,ρ2,ρ3需要费时费力进行整定的难题。

应该特别指出的是,在上述具体实施例中,将系统输出期望值y*(k)与系统输出实际值y(k)之差作为系统误差e(k),也就是e(k)=y*(k)-y(k),仅为所述系统误差计算函数中的一种方法;也可以将k+1时刻的系统输出期望值y*(k+1)与k时刻的系统输出实际值y(k)之差作为系统误差e(k),也就是e(k)=y*(k+1)-y(k);所述系统误差计算函数还可以采用自变量包含系统输出期望值与系统输出实际值的其它计算方法,举例来说,-y(k);对上述具体实施例的被控对象而言,采用上述不同的系统误差计算函数,都能够实现良好的控制效果。

还应该特别指出的是,在上述具体实施例中,所述bp神经网络的输入包含了前一时刻的偏导信息,但不限于前一时刻的偏导信息,举例来说,根据具体情况,还可以包含系统输出期望值、系统输出实际值等信息。

更应该特别指出的是,在上述具体实施例中,在以系统误差函数的值最小化为目标来更新bp神经网络的隐含层权系数、输出层权系数时,所述系统误差函数采用e2(k),仅为所述系统误差函数中的一种函数;所述系统误差函数还可以采用自变量包含系统误差、系统输出期望值、系统输出实际值的任意之一或任意种组合的其他函数,举例来说,系统误差函数采用(y*(k)-y(k))2或(y*(k+1)-y(k))2,也就是采用e2(k)的另一种函数形式;再举例来说,系统误差函数采用e2(k)+ωδu2(k),其中,δu(k)=u(k)-u(k-1),ω为大于或等于0的常数;显然,当ω等于0时,系统误差函数仅考虑了e2(k)的贡献,表明最小化的目标是系统误差最小,也就是追求精度高;而当ω大于0时,系统误差函数同时考虑e2(k)的贡献和δu2(k)的贡献,表明最小化的目标在追求系统误差小的同时,还追求控制输入变化小,也就是既追求精度高又追求操纵稳。对上述具体实施例的被控对象而言,采用上述不同的系统误差函数,都能够实现良好的控制效果;与系统误差函数仅考虑e2(k)贡献时的控制效果相比,在系统误差函数同时考虑e2(k)的贡献和δu2(k)的贡献时其控制精度略有降低而其操纵平稳性则有提高。

最后应该特别指出的是,所述siso偏格式无模型控制器待整定参数,包含惩罚因子λ和步长因子ρ1,…,ρl的任意之一或任意种组合;在上述具体实施例中,第一组试验验证时惩罚因子λ和步长因子ρ1,ρ2,ρ3实现了同时自整定,第二组试验验证时惩罚因子λ固定而步长因子ρ1,ρ2,ρ3实现了自整定;在实际应用时,还可以根据具体情况,选择待整定参数的任意种组合,举例来说,步长因子ρ1,ρ2固定而惩罚因子λ、步长因子ρ3实现自整定;此外,siso偏格式无模型控制器待整定参数,包括但不限于惩罚因子λ和步长因子ρ1,…,ρl,举例来说,根据具体情况,还可以包括伪梯度估计值等参数。

上述具体实施方式用来解释说明本发明,仅为本发明的优选实施例,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改、等同替换、改进等,都落入本发明的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1