快衰落信道下基于卷积神经网络的信道估计方法与流程

文档序号:18898818发布日期:2019-10-18 21:39阅读:1181来源:国知局
快衰落信道下基于卷积神经网络的信道估计方法与流程
本发明涉及无线通信
技术领域
,特别涉及快衰落信道下的信道估计问题。
背景技术
:现代无线通信由于对通信性能更高的要求,在快衰落信道下,需要我们实时获取信道增益以提升通信系统的性能。对于被广泛利用于信道编码的低密度奇偶校验码(lowdensityparitycheck,ldpc)而言,获取实时准确的信道估计尤为重要。置信传播(beliefpropagation,bp)算法作为ldpc码的译码算法被广泛采用,在衰落信道中的bp译码算法要求获取准确的信道估计值。现代无线通信为了提高通信各项性能,广泛采用多天线技术,由于天线彼此靠近,很容易产生衰落相关。这一相关特性的存在,使得利用诸如神经网络的人工智能方法解决信道估计问题成为可能。技术实现要素:本发明所要解决的技术问题是快衰落信道下的实时信道估计,为无线通信相关衰落信道提供了一种广泛适用的神经网络信道估计方法。本发明为解决上述技术问题采用以下技术方案:一种基于深度一维卷积网络的信道估计方法包括:1.发明应用场景构建利用单系数指数相关矩阵建模信道相关性,利用瑞利分布建模衰落信道,通过低密度奇偶检验码对信息进行编码,利用二进制相移键控进行信号调制,在所述的通信系统基础上,采集通信数据,构建接收信号同真实信道增益的训练数据集。利用这种方法构建的数据集去训练神经网络,可以获得一个理论上的普遍适用的信道估计器。2.信道估计器的构建和训练构建一维卷积神经网络结构,该神经网络由四层一维卷积层构成,前三层采用relu激活函数对结果进行激活,输出层采用线性激活函数输出。利用反向传播和小批量随机梯度下降方法对神经网络进行训练,利用卷积神经网络信道估计器得到估计估计信道增益。如果实际通信系统中的码字更长,需要酌情尝试更深的神经网络结构,利用实际通信系统获得的数据,在模拟系统训练获得的训练权重之上,继续训练,将系统拟合到最适合于目前的系统。3.信道估计器的验证使用通过构建瑞丽信道信道下的对数似然比作为置信传播输入,对低密度奇偶检验码进行译码,验证信道估计器性能。可以反复重复2,3步骤,在保证神经网络未过拟合的情况下,对神经网络进行改造,可以采用dropout技术改善过拟合情况,可以通过skip-connection技术加深神经网络的深度。本发明只给出了最简单的版本。本发明采用以上技术方案与现有技术相比,具有以下技术效果:提出了基于一维卷积神经网络的信道估计器,提供了一种端到端的信道估计获取方式,通过实际系统获取大量训练数据,利用深度学习相关技术训练神经网络信道估计器,无需对信号加入诸如导频一类的其他处理,神经网络采用全卷积层设计,避免使用全连接层,使得训练参数保持在较小规模上,无论是在训练还是在推理步骤上,都拥有较高的效率。在各相关程度下,至少可以达到利用通过统计方法得到的信道估计值进行译码的效果。本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。附图说明图1是系统结构示意图;图2是提出的卷积神经网络结构图。具体实施方式下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。本发明的一种基于深度一维卷积网络的信道估计方法包括:构建相关信道环境通信系统,采集数据集,构建一维卷积神经网络信道估计器,训练一维卷积神经网络信道估计器,重新计算对数似然比,进行信道译码验证,具体过程如图1所示。作为一种实施例,所述方法包括:考虑信道道相关性,利用梯度下降算法和反向传播机制,更新神经网络信道估计器参数,利用卷积神经网络提取蕴藏在接收信号中的信道相关特征,最终利用信道相关特征估计出信道增益。第一步:从信源到接收机首先,我们简要介绍信号的编码。在信道编码器处,k个信息比特的输入消息u,被编码为n比特码字x=[x0,x1,…,xn-1]通过某些特定的编码规则。编码公式如下:x=ug其中g是生成矩阵,码字x表示为消息矢量u和g在二进制字段gf(2)上的内积。然后,码字x被bpsk调制为信号s,由公式s=1-2x给出。符号矢量s=[s0,s1,…,sn-1]由发射机通过无线信道发送到接收器。最后,在接收器处接收信号矢量y=[y0,y1,…,yn-1]。信号矢量y可以表示为y=s⊙h+n。其中,在无线通信过程中生成相关信道增益h=[h0,h1,…,hn-1]。s和h执行hadamard乘积运算,并且在接收过程中产生噪声n=[n0,n1,…,nn-1]。第二步:神经网络的训练为了使cnn有效运行,需要依次执行以下三项任务。(1)获取训练数据集。(2)构建合适的神经网络结构。(3)设置超参数并训练神经网络。任务(1)是获取训练数据集。对于cnn,通过通信模拟程序获得接收信号y和信道增益数据。在本发明中,我们将信道建模为快速衰落信道,其遵循复高斯分布。信道增益的幅度服从瑞利分布。信道增益矢量g=[g0,g1,…,gn-1]给出为g=a+jb,其中a和b是独立且相同分布的高斯随机向量,具有零均值和单位方差。因此,信道增益的幅度|g|遵循瑞利分布的是其中k是比例因子。为了确保信道增益的平均p功率等于1,通过计算k等于1/2。我们将信道相关性建模为n×n单系数指数相关矩阵θf:相关信道增益h可以定义如下:所有数据集都以不同的信噪比(snr)生成:{0,2,4,5,6,7,8}db,并且在每个snr处生成50,000帧数据。每个snr的比例相同,这确保了神经网络对每个噪声功率的泛化能力。任务(2)是构建一维卷积神经网络。神经网络具体结构由一下表格给出。层数层1层2层3层4层5层类型输入一维卷积一维卷积一维卷积输出卷积核参数93315/感受野参数6432161/激活函数relurelurelulinear/任务(3)设置超参数并训练神经网络。为了保持每层的相同尺寸,采用相同的填充操作,其中在对每层执行卷积运算之后,对下一层的边缘进行零填充。卷积层不采用pooling操作,防止位置信息丢失。神经网络的训练包括前向传播和反向传播过程,在前向传播过程中,卷积核沿着信号矢量逐个向下滑动,和相应位置上的数字进行卷积操作。修改线性单元(rectifiededlinearunit,relu),也称为修改线性单元,是一种常用于人工神经网络的激活函数。relu可以减少消失梯度的问题,可以表示为f(x)=max(0,x)。通过大量实验,我们确定了适合神经网络训练的超参数。具体的超参数见下表:超参数类型超参数设置学习率0.001训练周期1000批次训练数据700初始化方法xavier优化器adam损失函数mseadam是一种优化算法,可以取代传统的随机梯度下降过程。它可以基于训练数据迭代地更新神经网络权重。神经网络的训练过程通过一次前向传播和一次后向传播来实现。反向传播中的梯度下降方法由adam代替。均方误差(mse)是一种常用的损失函数,表示为:第三步:信道估计器的使用利用训练完成得到的卷积神经网络信道译码器,输入接收信号,得到估计信道增益值。第四步:利用信道增益估计值进行译码。将得到的估计信道增益值,同输入信号一同计算对数似然比,对数释然比llr可以表示为:在快衰落信道下可以表示为:其中的第i个归一化信道增益,将llr输入置信传播译码器,进行译码。本发发明提出的基于一维卷积神经网络的信道估计器,对于相关环境下的信道估计具有广泛的适用性,在构建完成的卷积神经网络,通过通信系统获得的训练数据,通过简单的训练就可以达到良好的信道估计能力,且预测过程速度快,占用资源少。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1