一种基于编码-解码神经网络模型的功率放大器行为建模方法与流程

文档序号:14871366发布日期:2018-07-07 00:25阅读:136来源:国知局

本发明涉及非线性系统建模与分析应用技术领域,尤其是一种基于编码-解码神经网络模型的功率放大器行为建模方法。



背景技术:

功率放大器是发射机的重要模块,是一个复杂的非线性系统,功率放大器经常会产生严重的非线性失真,并且随着系统带宽的增加,功率放大器也会产生记忆效应。

发射机的内部结构大多比较复杂,对发射机的行为建模可以在不知道发射机内部组成的情况下,只依据系统的输入、输出测试数据就可以模拟出它的非线性和记忆效应。行为模型可以用来分析不同发射机所对应的模型参数差异,通过修改模型参数获取不同的发射机发射信号。在系统级仿真中,这种方法被广泛使用,并且经大量实验证明,这种方法能够精确地对功放进行建模。

一般来说,功率放大器行为建模可以分为无记忆模型和记忆模型两种。无记忆功放模型的种类很多,例如saleh模型、无记忆多项式模型等。无记忆功放模型相对简单,对于窄带系统建模有很好的效果。然而随着系统带宽的增加,功率放大器的记忆效应明显,无记忆模型无法很好地描述记忆效应,所以现在大多采用有记忆功放模型。有记忆模型一般采用volterra级数模型和神经网络模型等。volterra级数是对泰勒级数的扩展,该模型适用于弱非线性系统,而且系统的参数会随着阶次和记忆深度的增加而迅速增加,故计算量和收敛性受到了影响。而神经网络能够逼近任意非线性的函数,并且具有灵活有效的自组织学习能力,因而被广泛用于功率放大器系统的行为建模。普通的神经网络模型收敛速度较慢,建模的精度也一般。随着循环神经网络的提出,由于其将时序的概念引入到神经元结构设计中,使其在时序数据分析中表现出更强的适应性。循环神经网络的输出不仅与当前时刻的输入有关,也与前一个时刻的输入有关,模型带有很强的记忆效应。但是,传统的循环神经网络虽然可以利用上下文信息对当前时刻的输入进行建模得到相应的输出,然而在实际实验中发现,普通循环神经网络难以学到长时间跨度的依赖关系,也就是说,能够利用的上下文信息是有限的,因此普通循环神经网络在描述功放的长期记忆效应上表现一般。



技术实现要素:

本发明所要解决的技术问题在于,提供一种基于编码-解码神经网络模型的功率放大器行为建模方法,收敛速度较快,在相同的迭代次数下具有更高的精度。

为解决上述技术问题,本发明提供一种基于编码-解码神经网络模型的功率放大器行为建模方法,包括如下步骤:

(1)采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(n)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(n)],其中,n为数据长度;

(2)将输入和输出数据进行归一化;得到归一化输入信号数据向量和归一化输出信号数据向量

(3)初始化编码-解码神经网络模型;编码-解码神经网络模型的模型结构有四层:输入层、编码层、解码层和输出层;

(4)利用编码-解码神经网络模型对行为模型进行建模;

(5)通过步骤d得到的权系数,计算编码-解码神经网络模型最终的输出ym。

优选的,步骤(2)中,输入和输出数据进行归一化具体为:

其中max(·)表示求向量中最大值的运算。

优选的,步骤(3)中,初始化编码-解码神经网络模型具体包括如下步骤:

(31)设置编码-解码神经网络模型输入层有p个神经元,接收归一化输入信号数据向量并将其传递到编码层;编码层有l1个长短时记忆单元,每个编码层的长短时记忆单元有遗忘门传递函数fef(u)、输入门传递函数fei(u)、单元状态传递函数fec(u)、输出门传递函数feo(u);解码层有l2个长短时记忆单元,每个解码层的长短时记忆单元有遗忘门传递函数fdf(u)、输入门传递函数fdi(u)、单元状态传递函数fdc(u)、输出门传递函数fdo(u);其中u为函数的输入变量;输出层有m个神经元,该层神经元的输出ym(m=1,2…m)是解码层神经元输出的线性组合;

(32)在编码-解码神经网络模型中,有18种权系数矩阵:从输入层到编码层的n×1维权系数矩阵wx;编码层前一时刻的输出到遗忘门的l1×l1维权系数矩阵wefh;编码层的输入到遗忘门的l1×n维权系数矩阵wefx;编码层前一时刻的输出到输入门的l1×l1维权系数矩阵weih;编码层的输入到输入门的l1×n维权系数矩阵weix;编码层前一时刻的输出到长短时记忆单元的l1×l1维权系数矩阵wech;编码层的输入到长短时记忆单元的l1×n维权系数矩阵wecx;编码层前一时刻的输出到输出门的l1×l1维权系数矩阵weoh;编码层的输入到输出门的l1×n维权系数矩阵wefx;解码层前一时刻的输出到遗忘门的l2×l2维权系数矩阵wdfh;解码层语义向量到遗忘门的l2×l1维权系数矩阵wdfx;解码层前一时刻的输出到输入门的l2×l2维权系数矩阵wdih;解码层语义向量到输入门的l2×l1维权系数矩阵wdix;解码层前一时刻的输出到长短时记忆单元的l2×l2维权系数矩阵wdch;解码层语义向量到长短时记忆单元的l2×l1维权系数矩阵wdcx;解码层前一时刻的输出到输出门的l2×l2维权系数矩阵wdoh;解码层语义向量到输出门的l2×l1维权系数矩阵wdox;从解码层到输出层的l2×m维权系数矩阵wy。所有权系数矩阵均采用lecun均匀分布进行初始化;

(33)设置编码-解码神经网络模型训练最大迭代次为nmax;学习速率为η;误差函数阈值为ε。

优选的,步骤(4)中,利用编码-解码神经网络模型对行为模型进行建模具体包括如下步骤:

(41)根据编码-解码神经网络模型结构,计算编码-解码神经网络模型各层的输出:

ym(t)=wy(t)d(t)

d(t)=do(t)fdh[cd(t)]

do(t)=fdo[wdoh(t)d(t-1)+wdox(t)c(t)]

cd(t)=cd(t-1)df(t)+di(t)dc(t)

dc(t)=fdc[wdch(t)d(t-1)+wdcx(t)c(t)]

di(t)=fdi[wdih(t)d(t-1)+wdix(t)c(t)]

df(t)=fdf[wdfh(t)d(t-1)+wdfx(t)c(t)]

c(t)=e(t)

e(t)=eo(t)feh[ce(t)]

eo(t)=feo[weoh(t)e(t-1)+weox(t)xde(t)]

ce(t)=ce(t-1)ef(t)+ei(t)ec(t)

ec(t)=fec[wech(t)e(t-1)+wecx(t)xde(t)]

ei(t)=fei[weih(t)e(t-1)+weix(t)xde(t)]

ef(t)=fef[wefh(t)e(t-1)+wefx(t)xde(t)]

其中,表示第t次迭代时的归一化输入;xde(t)表示第t次迭代时输入层的输出;ef(t)表示第t次迭代时编码层遗忘门的输出;ei(t)表示第t次迭代时编码层输入门的输出;ec(t)表示第t次迭代时编码层的输入单元状态;ce(t)表示第t次迭代时编码层的单元状态;eo(t)表示第t次迭代时编码层输出门的输出;e(t)表示第t次迭代时编码层的输出;c(t)表示第t次迭代时的语义向量;df(t)表示第t次迭代时解码层遗忘门的输出;di(t)表示第t次迭代时解码层输入门的输出;dc(t)表示第t次迭代时解码层的输入单元状态;cd(t)表示第t次迭代时解码层的单元状态;do(t)表示第t次迭代时解码层输出门的输出;d(t)表示第t次迭代时解码层的输出;ym(t)表示第t次迭代时编码-解码神经网络模型的最终输出;wx(t)表示第t次迭代时从输入层到编码层的权系数矩阵,wefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权系数矩阵;wefx(t)表示第t次迭代时编码层的输入到遗忘门的权系数矩阵;weih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权系数矩阵;weix(t)表示第t次迭代时编码层的输入到输入门的权系数矩阵;wech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权系数矩阵;wecx(t)表示第t次迭代时编码层的输入到长短时记忆单元的权系数矩阵;weoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权系数矩阵;weox(t)表示第t次迭代时编码层的输入到输出门的权系数矩阵;wdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权系数矩阵;wdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权系数矩阵;wdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权系数矩阵;wdix(t)表示第t次迭代时解码层语义向量到输入门的权系数矩阵;wdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权系数矩阵;wdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元的权系数矩阵;wdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权系数矩阵;wdox(t)表示第t次迭代时解码层语义向量到遗忘输出门的权系数矩阵;wy(t)表示第t次迭代时从解码层到输出层的权系数矩阵;传递函数初始值e(0)=1,d(0)=1;

(42)计算目标误差函数,其定义为:

其中ym(t)为第t次迭代时编码-解码神经网络模型的最终输出,为归一化的系统的实际输出,上标t为矩阵的转置运算;

(43)用自适应矩估计算法训练编码-解码神经网络模型,得到模型的权值矩阵的变化量:

其中,at=β1at-1+(1-β1)gt,bt=β2bt-1+(1-β2)(gt)2,β1=0.9,β2=0.999,μ=10-8,a0=1,b0=1,gt表示第t次迭代时的梯度;

δdec=[δdf(t)]twdfx(t)+[δdi(t)]twdix(t)+[δdc(t)]twdcx(t)+[δdo(t)]twdox(t)

初始值ce(0)=1,cd(0)=1,δwy(t)表示第t次迭代时解码层到输出层的权值矩阵的变化量,δwx(t)表示第t次迭代时从输入层到编码层的权值矩阵的变化量,δwdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权值矩阵的变化量,δwdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权值矩阵的变化量,δwdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权值矩阵的变化量,δwdix(t)表示第t次迭代时解码层语义向量到输入门的权值矩阵的变化量,δwdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,δwdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元门的权值矩阵的变化量,δwdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权值矩阵的变化量,δwdox(t)表示第t次迭代时解码层语义向量到输出门的权值矩阵的变化量,δwefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权值矩阵的变化量,δwefx(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,δweih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权值矩阵的变化量,δweix(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,δwech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,δwecx(t)表示第t次迭代时编码层输入到长短时记忆单元的权值矩阵的变化量,δweoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权值矩阵的变化量,δweox(t)表示第t次迭代时编码层输入到输出门的权值矩阵的变化量;

(44)迭代次数加1,即t=t+1;当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数nmax时,继续步骤d-5;当目标误差函数小于误差阈值或者迭代次数大于最大迭代次数nmax时,停止迭代,执行步骤(5);

(45)根据δwy(t),δwdfh(t),δwdfx(t),δwdih(t),δwdix(t),δwdch(t),δwdcx(t),δwdoh(t),δwdox(t),δwefh(t),δwefx(t),δweih(t),δweix(t),δwech(t),δwecx(t),δweoh(t),δweox(t),δwx(t)更新权值系数;

(46)返回步骤(41)。

本发明的有益效果为:本发明利用长短时记忆单元的输出除了与即时输入有关,也与历史输入有关的特点,用来描述功率放大器的记忆效应,同时在单元内部加入遗忘门、输入门、输出门等结构,加强了长短时记忆单元对长期记忆效应的描述能力;在此基础上又使用编码层将输入向量编码为语义向量,该语义向量包含大部分输入向量的特征,使用解码层解码语义向量得到输出,这种网络结构可以利用输入向量的大部分信息,在加快了模型收敛速度的同时又保证了模型的精度,非常有利于功放的行为建模;模型收敛速度较快,在相同的误差阈值下,编码-解码神经网络模型需要的迭代次数远小于普通的神经网络模型;在相同的迭代次数下,编码-解码神经网络模型比普通的神经网络模型具有更高的精度。

附图说明

图1为本发明的d类功率放大器黑盒模型示意图。

图2为本发明的编码-解码神经网络模型结构示意图。

图3为本发明的第t次迭代时单个编码层长短时记忆单元结构示意图。

图4为本发明的第t次迭代时单个解码层长短时记忆单元结构示意图。

图5为本发明的编码-解码神经网络模型输出的时域波形及误差结果示意图。

图6为本发明的编码-解码神经网络模型输出的频谱及误差结果示意图。

具体实施方式

以下以d类功率放大器为例,结合附图,详细说明本发明的实施方式。

d类功率放大器工作在开关状态,功率转换效率较高,是一种典型的非线性系统。如图1所示为d类功率放大器电路的黑盒模型。其中,输入的线性调频信号xin幅度为8.5v,线性调频起始频率为2800hz,调频带宽为400hz。经过d类功率放大器后输出信号为yout,并带有失真。利用pspice仿真软件对功率放大器电路进行仿真后,采集2000个输入信号和输出信号作为实验数据进行行为建模,采样频率为100khz。

本发明是一种基于编码-解码神经网络模型的功率放大器的行为建模方法,包括如下步骤:

步骤a:采集功率放大器的输入信号数据向量xin=[xin(1),xin(2),…,xin(n)]和输出信号数据向量yout=[yout(1),yout(2),…,yout(n)],其中,n为数据长度。

步骤b:将输入和输出数据进行归一化;

其中max(·)表示求向量中最大值的运算。

得到归一化输入信号数据向量和归一化输出信号数据向量

步骤c:初始化编码-解码神经网络模型。编码-解码神经网络模型的模型结构有四层:输入层、编码层、解码层和输出层,如图2所示。其过程如下:

步骤c-1:设置编码-解码神经网络模型输入层有p=2000个神经元,接收归一化输入信号数据向量并将其传递到编码层;编码层有l1=30个长短时记忆单元,每个编码层的长短时记忆单元有遗忘门传递函数fef(u)、输入门传递函数fei(u)、单元状态传递函数fec(u)、输出门传递函数feo(u),如图3所示;解码层有l2=30个长短时记忆单元,每个解码层的长短时记忆单元有遗忘门传递函数fdf(u)、输入门传递函数fdi(u)、单元状态传递函数fdc(u)、输出门传递函数fdo(u),如图4所示;其中u为函数的输入变量。输出层有m=2000个神经元,该层神经元的输出ym(m=1,2…m)是解码层神经元输出的线性组合。

步骤c-2:在编码-解码神经网络模型中,有18种权系数矩阵:从输入层到编码层的n×1维权系数矩阵wx;编码层前一时刻的输出到遗忘门的l1×l1维权系数矩阵wefh;编码层的输入到遗忘门的l1×n维权系数矩阵wefx;编码层前一时刻的输出到输入门的l1×l1维权系数矩阵weih;编码层的输入到输入门的l1×n维权系数矩阵weix;编码层前一时刻的输出到长短时记忆单元的l1×l1维权系数矩阵wech;编码层的输入到长短时记忆单元的l1×n维权系数矩阵wecx;编码层前一时刻的输出到输出门的l1×l1维权系数矩阵weoh;编码层的输入到输出门的l1×n维权系数矩阵wefx;解码层前一时刻的输出到遗忘门的l2×l2维权系数矩阵wdfh;解码层语义向量到遗忘门的l2×l1维权系数矩阵wdfx;解码层前一时刻的输出到输入门的l2×l2维权系数矩阵wdih;解码层语义向量到输入门的l2×l1维权系数矩阵wdix;解码层前一时刻的输出到长短时记忆单元的l2×l2维权系数矩阵wdch;解码层语义向量到长短时记忆单元的l2×l1维权系数矩阵wdcx;解码层前一时刻的输出到输出门的l2×l2维权系数矩阵wdoh;解码层语义向量到输出门的l2×l1维权系数矩阵wdox;从解码层到输出层的l2×m维权系数矩阵wy。所有权系数矩阵均采用lecun均匀分布进行初始化。

步骤c-3:设置编码-解码神经网络模型训练最大迭代次为nmax=30;学习速率为η=0.04;误差函数阈值为ε=0.01。

步骤d:利用编码-解码神经网络模型对行为模型进行建模,其过程如下:

步骤d-1:根据编码-解码神经网络模型结构,计算编码-解码神经网络模型各层的输出:

ym(t)=wy(t)d(t)

d(t)=do(t)fdh[cd(t)]

do(t)=fdo[wdoh(t)d(t-1)+wdox(t)c(t)]

cd(t)=cd(t-1)df(t)+di(t)dc(t)

dc(t)=fdc[wdch(t)d(t-1)+wdcx(t)c(t)]

di(t)=fdi[wdih(t)d(t-1)+wdix(t)c(t)]

df(t)=fdf[wdfh(t)d(t-1)+wdfx(t)c(t)]

c(t)=e(t)

e(t)=eo(t)feh[ce(t)]

eo(t)=feo[weoh(t)e(t-1)+weox(t)xde(t)]

ce(t)=ce(t-1)ef(t)+ei(t)ec(t)

ec(t)=fec[wech(t)e(t-1)+wecx(t)xde(t)]

ei(t)=fei[weih(t)e(t-1)+weix(t)xde(t)]

ef(t)=fef[wefh(t)e(t-1)+wefx(t)xde(t)]

其中,表示第t次迭代时的归一化输入;xde(t)表示第t次迭代时输入层的输出;ef(t)表示第t次迭代时编码层遗忘门的输出;ei(t)表示第t次迭代时编码层输入门的输出;ec(t)表示第t次迭代时编码层的输入单元状态;ce(t)表示第t次迭代时编码层的单元状态;eo(t)表示第t次迭代时编码层输出门的输出;e(t)表示第t次迭代时编码层的输出;c(t)表示第t次迭代时的语义向量;df(t)表示第t次迭代时解码层遗忘门的输出;di(t)表示第t次迭代时解码层输入门的输出;dc(t)表示第t次迭代时解码层的输入单元状态;cd(t)表示第t次迭代时解码层的单元状态;do(t)表示第t次迭代时解码层输出门的输出;d(t)表示第t次迭代时解码层的输出;ym(t)表示第t次迭代时编码-解码神经网络模型的最终输出;wx(t)表示第t次迭代时从输入层到编码层的权系数矩阵,wefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权系数矩阵;wefx(t)表示第t次迭代时编码层的输入到遗忘门的权系数矩阵;weih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权系数矩阵;weix(t)表示第t次迭代时编码层的输入到输入门的权系数矩阵;wech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权系数矩阵;wecx(t)表示第t次迭代时编码层的输入到长短时记忆单元的权系数矩阵;weoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权系数矩阵;weox(t)表示第t次迭代时编码层的输入到输出门的权系数矩阵;wdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权系数矩阵;wdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权系数矩阵;wdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权系数矩阵;wdix(t)表示第t次迭代时解码层语义向量到输入门的权系数矩阵;wdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权系数矩阵;wdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元的权系数矩阵;wdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权系数矩阵;wdox(t)表示第t次迭代时解码层语义向量到遗忘输出门的权系数矩阵;wy(t)表示第t次迭代时从解码层到输出层的权系数矩阵;

传递函数初始值e(0)=1,d(0)=1。

步骤d-2:计算目标误差函数,其定义为:

其中ym(t)为第t次迭代时编码-解码神经网络模型的最终输出,为归一化的系统的实际输出,上标t为矩阵的转置运算。

步骤d-3:用自适应矩估计算法训练编码-解码神经网络模型,得到模型的权值矩阵的变化量:

其中,at=β1at-1+(1-β1)gt,bt=β2bt-1+(1-β2)(gt)2,β1=0.9,β2=0.999,μ=10-8,a0=1,b0=1,gt表示第t次迭代时的梯度。

δdec=[δdf(t)]twdfx(t)+[δdi(t)]twdix(t)+[δdc(t)]twdcx(t)+[δdo(t)]twdox(t)

初始值ce(0)=1,cd(0)=1,δwy(t)表示第t次迭代时解码层到输出层的权值矩阵的变化量,δwx(t)表示第t次迭代时从输入层到编码层的权值矩阵的变化量,δwdfh(t)表示第t次迭代时解码层前一时刻的输出到遗忘门的权值矩阵的变化量,δwdfx(t)表示第t次迭代时解码层语义向量到遗忘门的权值矩阵的变化量,δwdih(t)表示第t次迭代时解码层前一时刻的输出到输入门的权值矩阵的变化量,δwdix(t)表示第t次迭代时解码层语义向量到输入门的权值矩阵的变化量,δwdch(t)表示第t次迭代时解码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,δwdcx(t)表示第t次迭代时解码层语义向量到长短时记忆单元门的权值矩阵的变化量,δwdoh(t)表示第t次迭代时解码层前一时刻的输出到输出门的权值矩阵的变化量,δwdox(t)表示第t次迭代时解码层语义向量到输出门的权值矩阵的变化量,δwefh(t)表示第t次迭代时编码层前一时刻的输出到遗忘门的权值矩阵的变化量,δwefx(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,δweih(t)表示第t次迭代时编码层前一时刻的输出到输入门的权值矩阵的变化量,δweix(t)表示第t次迭代时编码层输入到遗忘门的权值矩阵的变化量,δwech(t)表示第t次迭代时编码层前一时刻的输出到长短时记忆单元的权值矩阵的变化量,δwecx(t)表示第t次迭代时编码层输入到长短时记忆单元的权值矩阵的变化量,δweoh(t)表示第t次迭代时编码层前一时刻的输出到输出门的权值矩阵的变化量,δweox(t)表示第t次迭代时编码层输入到输出门的权值矩阵的变化量。

步骤d-4:迭代次数加1,即t=t+1。当目标误差函数大于误差阈值或者迭代次数小于最大迭代次数nmax时,继续步骤d-5;当目标误差函数小于误差阈值或者迭代次数大于最大迭代次数nmax时,停止迭代,执行步骤e。

步骤d-5:根据δwy(t),δwdfh(t),δwdfx(t),δwdih(t),δwdix(t),δwdch(t),δwdcx(t),δwdoh(t),δwdox(t),δwefh(t),δwefx(t),δweih(t),δweix(t),δwech(t),δwecx(t),δweoh(t),δweox(t),δwx(t)更新权值系数。

步骤d-6:返回步骤d-1。

步骤e:通过步骤d得到的权系数,计算编码-解码神经网络模型最终的输出ym。

在隐含层神经元l1=l2=25,迭代次数为20的情况下,得到仿真电路输出信号时域波形、编码-解码神经网络模型输出信号时域波形以及时域误差曲线如图5所示,编码-解码神经网络模型的时域平均误差为0.0128v,时域最大瞬时误差为-0.1154v。仿真电路输出信号输出频谱、编码-解码神经网络模型输出信号频谱以及频谱误差曲线如图6所示,频域平均误差为4.0869db。可以看到编码-解码神经网络模型很好地描述了功率放大器的记忆效应与非线性特性,具有较高的精度。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1