基于深度学习提高仪器矢量信号分析性能的处理方法与流程

文档序号:17327475发布日期:2019-04-05 21:52阅读:240来源:国知局
基于深度学习提高仪器矢量信号分析性能的处理方法与流程

本发明涉及仪器仪表领域,尤其涉及仪器仪表误差校正领域,具体是指一种基于深度学习提高仪器矢量信号分析性能的处理方法。



背景技术:

本发明属于仪器仪表技术领域。主要涉及对矢量信号分析类仪器的系统误差进行校正、以提高测量精度的相关应用领域。具体指基于深度学习方法对测量仪器的矢量测量结果进行修正、均衡的方法,以弥补测量仪器的系统误差给矢量测量性能带来的影响,提高矢量信号分析测量结果的准确性。

本发明适用的测量仪器包括但不限于矢量信号分析仪(vectorsignalanalyzer),矢量测量结果包括但不限于误差矢量幅度(errorvectormagnitude,evm)。

矢量信号分析广泛应用于无线通信设备测试中。支持矢量信号分析功能的仪器通常包含射频接收模块(例如放大器、混频器、滤波器等),模数转换器(adc)和数字信号处理单元(例如dsp、fpga、cpu、gpu)。最具代表性的具备矢量信号分析功能的仪器是矢量信号分析仪,终端综测仪、基站综测仪等通信仪器一般也具有矢量信号分析功能。

一般数字调制信号经过解调得到实部(记为i)和虚部(记为q)两个分量,在经过符号同步、相差校正、频差校正等处理,得到信号所包含的码元信息,将这些码元以i分量作为横坐标,q分量作为纵坐标,绘制在正交坐标图上,便得到了所谓星座图。图1、图2是qpsk调制方式的星座图,信号质量较好、失真较小的情况下,星座图上各个数据点集中在4个参考点附近,如图1所示;信号质量较差、失真严重时,数据点可能会偏离参考点,位置比较分散,例如图2所示。我们可以通过分析测量点与参考点之间的矢量距离来判断信号质量的好坏,通常使用误差矢量幅度(errorvectormagnitude,evm),来表示实际信号与参考点之间的矢量差。evm衡量调制信号质量好坏的重要参数,它既包含了信号的幅度误差,也包含了信号的相位误差。

调制信号的失真通常来源于射频电路自身的缺陷,例如iq不平衡、信号通带内的频响不平坦、相位噪声等。矢量信号分析仪是测量信号evm的最常用仪器之一,然而,矢量信号分析仪自身的射频接收电路同样存在上述问题,给被测信号带来额外的失真,从而影响evm的测量结果,尤其是对于5g及未来通信系统的超大带宽信号,这些影响尤其显著。为了能测量出准确的evm指标,矢量信号分析仪要在射频接收硬件的设计和优化上做到极致,但这常常是十分困难的,因此,在数字信号处理的过程中加入对射频硬件失真的补偿算法,就成为了一项十分必要的工作。

为了补偿如图2所示的信号失真状况,通常的做法是使用梳状谱发生器向信号接收机发射多个正弦波叠加的多音信号,接收机接收采集后与原始的信号做对比,得到每个正弦波频点上功率和相位变化,凭借这些数据对接收机射频电路进行建模,得到其通带内频响和相位变化,然后对分析仪接收电路进行均衡和补偿。但是,这种方法存在着不足,为了得到接收机通带内各处频响变化,需要精确知道梳状谱各条谱线的功率和相位情况,这通常是很难获取的,一般用在对精度和溯源性要求特别高的计量校准中,复杂度高,校准成本高。

由于当前失真补偿校正方法的复杂和计算困难,我们就需要找到更为简便的方法。神经网络(neuralnetwork,nn)是仿照生物神经系统连接结构而构建出来的数学模型,是目前十分热门、应用广泛的数学工具,能够解决许多复杂问题,它有着非常突出的信息处理能力,尤其是处理不精确信息和模糊信息的能力。神经网络的行为由一系列参数决定,这些参数一般通过训练和学习得到。近年来,随着深度学习技术的发展,神经网络开始在各领域发挥越来越大的作用。本发明基于深度学习的算法架构,采用神经网络对仪器进行矢量测量误差校正。



技术实现要素:

本发明的目的是克服了上述现有技术的缺点,提供了一种避免过度校正、保持原特性不变、便捷可实现的基于深度学习提高仪器矢量信号分析性能的处理方法。

为了实现上述目的,本发明的基于深度学习提高仪器矢量信号分析性能的处理方法如下:

该基于深度学习提高仪器矢量信号分析性能的处理方法,其主要特点是,所述的方法包括以下步骤:

(1)将经过非理想的分析仪射频接收机的失真信号进行adc采样得到序列y,并引入前馈神经网络对y的硬件失真进行补偿;

(2)根据信号的调制类型和相应星座图的位置对数据序列y进行解析,估计信号要传送的码元序列数据s,并根据具有l层的多层感知器神经网络mlp估计误差ε;

(3)根据具有l层的多层感知器神经网络mlp通过激活函数得到mlp输出层;

(4)将所述的mlp输出层的的输出结果校正y得到最终测量符号;

(5)通过训练数据集以及使用反向传播算法bp训练得到mlp的权重集。

较佳地,所述的步骤(2)中的得出mlp中第一层的输出层,具体为:

根据以下公式得出mlp中第一层的输出层:

r1=f1(s;θ1)=s;

其中,r={r1,…,rl}为每层的输出向量,θ={θ1,…,θl}为mlp内所有参数的集合,

较佳地,所述的步骤(2)中的得出mlp中的第二层至l-1层为网络的隐藏层。

较佳地,所述的步骤(2)中的得出mlp中第二层至l-1层,具体为:

根据以下公式得出mlp中第二层至l-1层:

rl=fl(rl-1;θl);

其中,r={r1,…,rl}为每层的输出向量,θ={θ1,…,θl}为mlp内所有参数的集合,l为2,…,l-1。

较佳地,所述的步骤(3)中的激活函数为

较佳地,所述的步骤(3)中的得出mlp输出层,具体为:

根据以下公式得出mlp输出层:

ε=rl=fl(rl-1;θl)=wlrl-1;

其中,r={r1,…,rl}为每层的输出向量,θ={θ1,…,θl}为mlp内所有参数的集合,是各层之间线性连接的权重。

较佳地,所述的提供权重为的线性变换。

较佳地,所述的步骤(4)中的得到最终测量符号,具体为:

根据以下公式得到最终测量符号:

其中,为[y0,y1]t,ε为[ε0,ε1]t

较佳地,所述的步骤(4)中的通过m训练数据集训练mlp的权重集,具体为:

根据以下公式通过m训练数据集训练mlp的权重集:

其中,y0,m和y1,m分别表示第m个包含失真的数据的实部和虚部,s0,m和s1,m分别表示第m个理想发送数据的实部和虚部,ε0,m和ε1,m分别表示第m个数据的误差,m表示训练数据集的大小。

采用了本发明的基于深度学习提高仪器矢量信号分析性能的处理方法,本发明实现了对仪器的失真特性进行校正。凭借神经网络良好的拟合能力,拟合出仪器接收机失真的数学特性,进而对失真进行校正。避免了对信号进行过度的校正。只对仪器接收机带来的失真做校正,同时能够保留原本输入信号的特性。

附图说明

图1为本发明的基于深度学习提高仪器矢量信号分析性能的处理方法的信号质量较好、数据点分布密集的qpsk星座图。

图2为本发明的基于深度学习提高仪器矢量信号分析性能的处理方法的信号质量较差、数据点分散的qpsk星座图。

图3为本发明的基于深度学习提高仪器矢量信号分析性能的处理方法的矢量信号分析仪校正方法的示意图。

图4为本发明的基于深度学习提高仪器矢量信号分析性能的处理方法的构建的神经网络示意图。

图5为本发明的基于深度学习提高仪器矢量信号分析性能的处理方法的神经网络训练的收敛过程示意图。

图6为本发明的基于深度学习提高仪器矢量信号分析性能的处理方法的未加神经网络校正的星座图的实机测试结果。

图7为本发明的基于深度学习提高仪器矢量信号分析性能的处理方法的应用神经网络校正后的星座图的实机测试结果。

具体实施方式

为了能够更清楚地描述本发明的技术内容,下面结合具体实施例来进行进一步的描述。

该基于深度学习提高仪器矢量信号分析性能的处理方法,其中包括以下步骤:

(1)将经过非理想的分析仪射频接收机的失真信号进行adc采样得到序列y,并引入前馈神经网络对y的硬件失真进行补偿;

(2)根据信号的调制类型和相应星座图的位置对数据序列y进行解析,估计信号要传送的码元序列数据s,并根据具有l层的多层感知器神经网络mlp估计误差ε;

(3)根据具有l层的多层感知器神经网络mlp通过激活函数得到mlp输出层;

(4)将所述的mlp输出层的的输出结果校正y得到最终测量符号;

(5)mlp的权重集是通过训练数据集,使用反向传播算法bp训练而得到。

作为本发明的优选实施方式,所述的步骤(2)中的得出mlp中第一层的输出层,具体为:

根据以下公式得出mlp中第一层的输出层:

r1=f1(s;θ1)=s;

其中,r={r1,…,rl}为每层的输出向量,θ={θ1,…,θl}为mlp内所有参数的集合,

作为本发明的优选实施方式,所述的步骤(2)中的得出mlp中的第二层至l-1层为网络的隐藏层。

作为本发明的优选实施方式,所述的步骤(2)中的得出mlp中第二层至l-1层,具体为:

根据以下公式得出mlp中第二层至l-1层:

rl=fl(rl-1;θl);

其中,r={r1,…,rl}为每层的输出向量,θ={θ1,…,θl}为mlp内所有参数的集合,l为2,…,l-1。

作为本发明的优选实施方式,所述的步骤(3)中的激活函数为

作为本发明的优选实施方式,所述的步骤(3)中的得出mlp输出层,具体为:

根据以下公式得出mlp输出层:

ε=rl=fl(rl-1;θl)=wlrl-1;

其中,r={r1,…,rl}为每层的输出向量,θ={θ1,…,θl}为mlp内所有参数的集合,是各层之间线性连接的权重。

作为本发明的优选实施方式,所述的提供权重为的线性变换。

作为本发明的优选实施方式,所述的步骤(4)中的得到最终测量符号,具体为:

根据以下公式得到最终测量符号:

其中,为[y0,y1]t,ε为[ε0,ε1]t

作为本发明的优选实施方式,所述的步骤(4)中的通过m训练数据集训练mlp的权重集,具体为:

根据以下公式通过m训练数据集训练mlp的权重集:

其中,y0,m和y1,m分别表示第m个包含失真的数据的实部和虚部,s0,m和s1,m分别表示第m个理想发送数据的实部和虚部,ε0,m和ε1,m分别表示第m个数据的误差,m表示训练数据集的大小。

本发明的具体实施方式中,使用神经网络来校正测量仪器的矢量误差,方法上便捷可实现。同时,不对信号做过度校正,保持原本输入信号的特性不变,已达到测量的目的。

本发明提供一种基于深度学习的、采用神经网络得到仪器矢量测量误差,并进行误差消除的方法。以信号分析仪为例,构建一个神经网络,训练时,向信号分析仪输入的调制信号,用于拟合信号分析仪接收电路自身失真,向神经网络输入当前以及之前一段连续时刻的数据,训练神经网络拟合出射频电路信号失真的数学特性,并输出该时刻的误差矢量。在实际使用时,向神经网络根据输入当前时刻信号,得到仪器自身误差矢量,再由原始信号减去误差矢量,还原得到原本的输入信号。

基于神经网络的矢量信号分析校正方案如图3所示,源自被测设备(deviceundertest,dut)的信号x·e-i2πft经过非理想的分析仪射频接收电路而失真,之后经过adc采集后得到序列y,我们引入前馈神经网络对y的硬件失真进行补偿。

根据信号的调制类型和相应星座图的位置,首先解析数据序列y,以估计信号要传送的码元数据s,如图4所示,码元序列s被提供给具有l层的多层感知器(mlp)神经网络,以估计误差ε。我们使用f(s;θ)∶来表示输入输出之间的映射关系,输入实数向量后经过l层运算得到实数向量输出其中s包含n0个复值的实部和虚部,ε包含一个复值的实部和虚部。我们使用θ={θ1,…,θl}来表示mlp内所有参数的集合,并且r={r1,…,rl}来表示每层的输出向量,则第一层的输出层:

r1=f1(s;θ1)=s

其中此模型需要考虑到当前数据之前n0-1个符号造成的影响。第二层至l-1层是网络的隐藏层,它们的输出定义:

rl=fl(rl-1;θl)

其中l=2,…,l-1,fl(rl-1;θl)∶表示从第l-1层至l层的映射。这个映射的形式如下:

fl(rl-1;θl)=σ(wlrl-1+bl)

其中是各层之间线性连接的权重,是各个连接节点的附加偏置,σ(·)则是各个节点的激活函数来引入非线性的变换。在本模型中,设定偏置bl=0,选择激活函数为sigmoid函数第l层也就是mlp输出层表示为:

ε=rl=fl(rl-1;θl)=wlrl-1

其中提供权重为的线性变换,最后我们将mlp输出的结果用于校正y,然后得到最终测量符号。

其中ε=[ε0,ε1]t.注意上述的每个量值都包含复值符号的实部和虚部,两个分量仪器表示出星座点的位置。

mlp的权重集w={w2,…,wl}通过m训练数据集来在训练过程中不断更新,训练的过程是使损失函数l(w)不断收敛

这里使用反向传播算法(backpropagation,bp),基于梯度下降来计算权重的更新,这是深度学习中常用的算法。

使用上述方法对测量仪器的数据进行校正,首先给测量仪器输入失真较小的数据用作训练,图5显示了随着训练次数的增加,evm值逐渐降低,信号失真越来越小,表明神经网络的输出在逐渐收敛。训练完成后,检查神经网络的校正结果,同时与不做校正的结果做比较,图6显示了未作校正的星座图,图7显示了对数据进行校正后的星座图,可见经过校正,失真得到剔除,信号质量得到了改善。

采用了本发明的基于深度学习提高仪器矢量信号分析性能的处理方法,本发明实现了对仪器的失真特性进行校正。凭借神经网络良好的拟合能力,拟合出仪器接收机失真的数学特性,进而对失真进行校正。避免了对信号进行过度的校正。只对仪器接收机带来的失真做校正,同时能够保留原本输入信号的特性

在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1