针对功率放大器的多项式辅助神经网络行为建模系统及方法与流程

文档序号:22737255发布日期:2020-10-31 09:16阅读:129来源:国知局
针对功率放大器的多项式辅助神经网络行为建模系统及方法与流程

本发明涉及功率放大器行为建模领域,特别是涉及一种针对功率放大器的多项式辅助神经网络行为建模系统及方法。



背景技术:

第五代移动通信系统(5g)对通信质量提出了更高的要求:更快的速率、更低的延迟和更高的效率。功率放大器作为无线通信系统的核心器件,其性能的好坏直接影响到整个系统的通信质量。然而,功率放大器工作在高效率模式下时通常表现出很强的非线性,导致信号传输失真,影响正常通信。为了兼顾功率放大器的效率和线性度,一般利用数字预失真技术对非线性进行补偿,数字预失真技术通过建立功率放大器的逆特性来预失真原输入信号。因此,为了获得良好的线性化性能,需要一个精确的行为模型。

基于多项式的传统模型,如记忆多项式模型,广义记忆多项式模型被广泛用于功率放大器的行为级建模。然而,对于5g中非线性特性较复杂的功率放大器,使用这些传统模型将需要大量的核函数,这会导致数值不稳定问题,影响建模性能。

此外,基于神经网络的模型是另一种选择。神经网络能以任意精度逼近任意非线性曲线,在对功率放大器进行为建模时取得了令人满意的效果。然而,在5g中功率放大器由于超宽带操作而产生了严重的记忆效应,为了准确地对功率放大器进行建模,需要一个大型的神经网络。这导致神经网络结构复杂,系数繁多,且收敛速度慢,稳定性差,造成了资源的浪费。因此,需要一个更加高效精准的功率放大器行为建模方法。



技术实现要素:

发明目的:本发明的一个目的是提供一种针对功率放大器的多项式辅助神经网络行为建模系统。

本发明的另一个目的是提供一种针对功率放大器的多项式辅助神经网络行为建模方法,能够以较低的复杂度对5g中的复杂特性功率放大器进行准确建模。

技术方案:本发明的针对功率放大器的多项式辅助神经网络行为建模系统,包括多项式辅助模块和神经网络模块,多项式辅助模块利用功率放大器的先验信息拟合功率放大器的主要非线性,神经网络模块补偿多项式辅助模块无法表征的特征,对功率放大器的非线性行为进行精细拟合。

优选的,多项式辅助模块和神经网络模块集成于同一个神经网络中,采用误差反向传播算法同时更新多项式辅助模块和神经网络模块的系数。

优选的,多项式辅助模块为一个不含隐藏层的神经网络结构,包括输入层和输出层,输入层为功率放大器的建模输入信号进行多项式操作后的实部和虚部,输入信号直接传递到输出层;输出层接收来自输入层的信号,对信号进行线性加权组合运算,得到多项式辅助模块的输出信号。

优选的,将传统模型的多项式核函数改为神经网络能处理的实部和虚部的形式,嵌入到神经网络内部,作为多项式辅助模块的输入信号;传统模型改为实数形式如下式所示:

其中,y(n)为时刻n的输出信号,fg[·]为第g个核函数,g为核函数的个数,cg为第g个复数系数,cg=cg,i+jcg,q,cg,i和cg,q分别为cg的同相和正交分量,j为虚数单位,ag为第g个对输入信号的非线性操作,ag=ag,i+jag,q,ag,i和ag,q分别为ag的同相和正交分量;

其中,多项式辅助模块的输入信号为ag,i和ag,q,其中g取1到g;

多项式辅助模块输出层的线性加权组合运算表达式为:

其中,i(n)和q(n)分别为多项式辅助模块输出信号的同相和正交分量,w1g,i、w2g,i、w1g,q和w2g,q为神经网络的权值。

优选的,神经网络模块采用矢量分解的结构,将复数信号分解为幅度和相位进行处理,以符合输入信号通过功率放大器的失真特性。

优选的,神经网络模块包括输入层、隐藏层、组加权层、相位恢复层和输出层,其中:

神经网络模块的输入层对输入信号的幅度进行延时,假设模型的记忆深度为m,则输入层有m个神经元,第m个神经元在时刻n的输入信号为xm(n)=|x(n-m)|;

神经网络模块的隐藏层为全连接层,激活函数为双曲正切,其运算表达式为:

其中,yk(n)为第k个隐藏层神经元的输出信号,tanh[·]为双曲正切激活函数,wmk为第m个输入层神经元到第k个隐藏层神经元的权值,bk第k个神经元的偏置;

组加权层对隐藏层输出信号进行分组加权,隐藏层神经元提取了功率放大器的幅度非线性特征,之后还需要对其进行相位恢复;组加权层将恢复相位相同的幅度非线性项进行合并,简化相位恢复工作;对于记忆深度为m的模型,一共有m个相位需要恢复,将隐藏层神经元分成m个组,对每一组内的神经元进行加权产生4个输出信号用于下一层的相位恢复;组加权层相当于是m个全连接层,每个全连接层均有4个输出神经元;

相位恢复层接收来自组加权层的信号,对合并的幅度非线性项进行相位恢复;每一组的前2个神经元gm,0和gm,1分别乘以cosθn-m和sinθn-m输出到iout(n),每一组的后2个神经元gm,2和gm,3分别乘以cosθn-m和sinθn-m输出到qout(n);其中,iout(n),qout(n)分别表示最终输出信号的同相和正交分量,gm,0、gm,1、gm,2、gm,3分别表示组加权层中第m个组的第1、2、3、4个神经元的输出,θn-m表示输入信号延时m的相位。

优选的,神经网络模块相位恢复层的输出信号与多项式辅助模块的输出信号在最后的输出层相加,得到功率放大器的建模输出信号,计算公式如下:

其中,iout(n),qout(n)分别表示最终输出信号的同相和正交分量,gm,0、gm,1、gm,2、gm,3分别表示组加权层中第m个组的第1、2、3、4个神经元的输出,θn-m表示输入信号延时m的相位,m为神经元个数。

本发明的针对功率放大器的多项式辅助神经网络行为建模方法,包括以下步骤:

s1、将一组输入信号输入功率放大器,然后捕获输出信号;从而采集到功率放大器建模所需的输入数据和相应的输出数据,并将输入输出数据分成训练集和验证集;

s2、根据所需建模精度和功率放大器的非线性特性,选择需要嵌入到多项式辅助模块中的传统模型;

s3、设置建模系统超参数:多项式辅助模块输入信号数量,神经网络模块隐藏层神经元数量,批处理的大小,优化器的学习率,迭代次数,目标建模误差;

s4、将功率放大器输入输出数据训练集输入系统,使用adam优化器更新模型系数,直到迭代次数或建模误差达到要求;

s5、保存模型系数,将验证集输入数据注入系统,得到测试集建模输出数据,与实际输出数据比较并计算归一化均方误差,如误差小于目标建模误差,则进入步骤s6,如不满足,则重复步骤s2~s5;

s6、导出模型系数,建模系统之后可根据功率放大器的输入信号对输出信号进行预测。

其中,传统模型为记忆多项式模型或广义记忆多项式模型。

本发明通过将功率放大器的先验信息嵌入到神经网络模型中,在不损失建模精度的情况下,大大降低了模型的复杂度。

有益效果:与现有技术相比,本发明具有以下优点:

1)多项式核函数的嵌入降低了神经网络的拟合要求,大大减少了神经网络的系数个数,从而解决了以往神经网络模型系数繁多、网络结构复杂的问题。

2)多项式辅助模块固定了部分非线性操作,减少了整个模型的计算量,提高了稳定性和收敛速度。

3)神经网络模块具有很高的灵活性,该模型仍然具有神经网络模型的优点。神经网络模块可以生成多项式基函数不能表征的特征,提高了建模性能。

附图说明

图1是本发明系统结构框图;

图2是本发明具体实施方式中对一个输入信号为5gnr的gan功率放大器进行建模的建模功率谱图和建模误差图。

具体实施方式

下面结合具体实施方式和附图对本发明的技术方案作进一步的介绍。

本具体实施方式公开了一种针对功率放大器的多项式辅助神经网络行为建模系统,该建模系统包括多项式辅助模块和神经网络模块。多项式辅助模块利用功率放大器的先验信息拟合功率放大器的主要非线性,神经网络部分补偿多项式辅助模块无法表征的特征,对非线性行为进行精细拟合。

多项式辅助模块和神经网络模块集成于同一个神经网络中,采用误差反向传播算法同时更新两个模块的系数。

多项式辅助模块为一个不含隐藏层的神经网络结构,由输入层和输出层组成;所述输入层为功率放大器的建模输入信号进行多项式操作后的实部和虚部,输入信号直接传递到输出层;所述输出层接收来自输入层的信号,对信号进行线性加权组合运算,得到多项式辅助模块的输出信号。

多项式辅助模块输入层对输入信号的多项式操作利用功率放大器的先验信息,减少神经网络的计算量。由于已知功率放大器的非线性特性可以使用多项式进行表征,因此可以将传统模型的多项式核函数改为神经网络能处理的实部和虚部的形式,嵌入到神经网络内部,作为多项式辅助模块的输入信号;传统模型改为实数形式如式(1)所示:

其中,y(n)为时刻n的输出信号,fg[·]为第g个核函数,g为核函数的个数,cg为第g个复数系数,cg=cg,i+jcg,q,cg,i和cg,q分别为cg的同相和正交分量,j为虚数单位,ag为第g个对输入信号的非线性操作,ag=ag,i+jag,q,ag,i和ag,q分别为ag的同相和正交分量;

其中,多项式辅助模块的输入信号为ag,i和ag,q,其中g取1到g。

多项式辅助模块输出层的线性加权组合运算可以表示为式(2)和(3):

式(2)(3)中i(n)和q(n)分别为多项式辅助模块输出信号的同相和正交分量,w1g,i,w2g,i,w1g,q和w2g,q为神经网络的权值。

神经网络模块采用矢量分解的结构,将复数信号分解为幅度和相位进行处理,以符合输入信号通过功率放大器的失真特性。

神经网络模块由输入层、隐藏层、组加权层、相位恢复层和输出层组成。

神经网络模块的输入层对输入信号的幅度进行延时,假设模型的记忆深度为m,则输入层有m个神经元,第m个神经元在时刻n的输入信号为xm(n)=|x(n-m)|。

神经网络模块的隐藏层为全连接层,激活函数为双曲正切,其运算可以表示为式(4):

式(4)中yk(n)为第k个隐藏层神经元的输出信号,tanh[·]为双曲正切激活函数,wmk为第m个输入层神经元到第k个隐藏层神经元的权值,bk第k个神经元的偏置。

组加权层对隐藏层输出信号进行分组加权。隐藏层神经元提取了功率放大器的幅度非线性特征,之后还需要对其进行相位恢复。组加权层将恢复相位相同的幅度非线性项进行合并,简化相位恢复工作。对于记忆深度为m的模型,一共有m个相位需要恢复,将隐藏层神经元分成m个组,对每一组内的神经元进行加权产生4个输出信号用于下一层的相位恢复。组加权层可以看做是m个全连接层,每个全连接层均有4个输出神经元。

相位恢复层接收来自组加权层的信号,对合并的幅度非线性项进行相位恢复。每一组的前2个神经元gm,0和gm,1分别乘以cosθn-m和sinθn-m输出到iout(n),每一组的后2个神经元gm,2和gm,3分别乘以cosθn-m和sinθn-m输出到qout(n)。其中iout(n),qout(n)分别表示最终输出信号的同相和正交分量,gm,0、gm,1、gm,2、gm,3分别表示组加权层中第m个组的第1、2、3、4个神经元的输出,θn-m表示输入信号延时m的相位。

神经网络模块相位恢复层的输出信号与多项式辅助模块的输出信号在最后的输出层相加,得到功率放大器的建模输出信号,如式(5)和(6)所示:

针对功率放大器的多项式辅助神经网络行为建模方法,包括以下步骤:

s1:将一组输入信号输入功率放大器,然后捕获输出信号;从而采集到功率放大器建模所需的输入数据和相应的输出数据,并将输入输出数据分成训练集和验证集。

s2:根据所需建模精度和功率放大器的非线性特性,选择需要嵌入到多项式辅助模块中的传统模型,可选的有:记忆多项式模型,广义记忆多项式模型等等。

s3:设置建模系统超参数,包括:多项式辅助模块输入信号数量,神经网络模块隐藏层神经元数量,批处理的大小,优化器的学习率,迭代次数,目标建模误差。

s4:将功率放大器输入输出数据训练集输入系统,使用adam优化器更新模型系数,直到迭代次数或建模误差达到要求。

s5:保存模型系数,将验证集输入数据注入系统,得到测试集建模输出数据,与实际输出数据比较并计算归一化均方误差,如误差小于目标建模误差,则进入步骤s6,如不满足,则重复步骤s2~s5。

s6:导出模型系数,建立模型系统之后可根据功率放大器的输入信号对输出信号进行预测。

其中,传统模型为记忆多项式模型或广义记忆多项式模型。

图2展示了本发明具体实施方式中对一个输入信号为5gnr的gan功率放大器进行建模的建模功率谱图和建模误差图。在图2中,采用本发明提出的多项式辅助神经网络方法建模该功率放大器,在频域上建模信号与实测信号拟合情况较好,建模误差在-50db以下,建模效果不差于现有模型,且本发明提出的模型使用了更少的系数。由此获得了一种更加高效的建模方法。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1