一种超奈奎斯特速率通信的dl-cnn解调器的制造方法

文档序号:8489844阅读:432来源:国知局
一种超奈奎斯特速率通信的dl-cnn解调器的制造方法
【技术领域】
[0001] 本发明设及通信领域,特别是通信的符号速率超过奈奎斯特速率时码间干扰调制 信号的判决解调问题。
【背景技术】
[0002] 随着信息技术、宽带移动通信和智能手机的不断发展,不仅导致无线电频谱成为 稀缺资源,而且遍布全国的通信基站每年耗电也超过上百亿度,因此,现代信息社会迫切需 求具有高频谱利用率和高能量利用率的信息传输体制。
[0003] 1.超奈奎斯特速率
[0004] 在数字通信领域,波特率即调制速率,指的是有效数据信号调制载波的速率,可理 解为单位时间内所传输符号(也称码元)的个数,单位为Symbol/s或波特炬aud或Bd)。 而奈奎斯特(Nyquist)定理指出,特定信道的码元速率不可能超过低通信道带宽的2倍,因 而2Bd/化就称为奈奎斯特速率。现有通信系统欲提高在单位频带内的信息传输速率(即比 特率,单位为bit/s或bps),只能增加每个通信码元所取离散值的个数,即引入高阶调制。 该是通信技术领域的公知常识和经典技术,与之关联又有下述两个公知常识:
[0005] 1)奈奎斯特速率只是无干扰状态下的理论最高传输速率,而实际物理信道难免有 各种干扰,故信道容量要受香农(化annon)公式制约;
[0006] 2)码元速率超过奈奎斯特速率并非不能通信,但符号间一定会产生码间干扰 (ISI),而现有的最佳接收机模型和相关解调理论,都是建立在没有码间干扰的前提下的。
[0007] 因此,基于本领域的公知常识,W下几条结论也是显然的:
[000引 1)奈奎斯特速率调制信号通过带宽更窄信道进行的通信,就是超奈奎斯特速率通 信(即通信码元速率超过奈奎斯特速率);
[0009] 2)超奈奎斯特速率通信可W直接提高频谱利用率;
[0010] 3)对奈奎斯特速率调制信号施加带宽更窄的带通滤波(简称"超带限滤波"),即 得超奈奎斯特速率信号;
[0011] 4)对于同样的码元速率,传输与接收超奈奎斯特速率信号可采用更窄的信道与接 收机带宽,该有助于降低接收机噪声系数,提高接收机灵敏度,并可望在同样的发射功率下 得到更高的接收信噪比(SNR),或更远的通信距离;
[0012] 5)实现超奈奎斯特速率通信的关键,在于能正确解调码间干扰信号,而现有技术 通常分为两步:首先通过信道均衡、逆滤波等技术手段消除码间干扰,恢复正常调制信号; 再采用常规方法完成解调。
[0013] 总之,超奈奎斯特速率调制信号本质上是因正常速率调制信号受到过窄的带通 (载波调制信号)或低通(基带信号)滤波限制而损失高频分量的结果,而现有的接收处 理技术首先采用信道均衡或逆滤波消除码间干扰,在频域上看就是要采用一个等效的带阻 (对于载波调制信号)或高通(对于基带信号)滤波器来相对补偿接收信号的高频分量,该 不可避免地也会相应地提升带外噪声,引起解调前接收信噪比的恶化。所W,能够直接解调 超奈奎斯特速率调制信号的高性能解调器,是能够同时提升通信系统频谱利用率和能量利 用率的关键。
[0014] 2.深度学习-卷积神经网络值kCNN)
[0015] 2006年,加拿大多伦多大学教授GeofTrey化nton在《科学》杂志上发表了一篇关 于多隐层深度神经网络的文章,开启了深度学习值eeplearning,简称DL)在学术界和工 业界的研究浪潮。
[0016] 1)深度学习是机器学习的一个分支,主要特点是通过多层次的学习而得到对于原 始数据不同抽象程度的表示,进而提高分类和预测等任务的准确性。例如有一堆输入I(如 一堆不同环境下采集的信号),假设我们设计了一个n层的系统S,通过调整系统中的参数, 使得它的输出仍然是输入I,那么就可W自动得到输入I的一系列层次特征,即S1,...,Sn。 因此,区别于传统的支撑向量机(SVM)等浅层学习算法,化无需依靠人工经验抽取样本特 征,而是通过构建具有很多隐层的机器学习模型和海量的训练数据(即利用"大数据"),来 自动学习更有用的特征,从而最终提升分类或预测的准确性。
[0017] 2)卷积神经网络(ConvolutionalNeuralNetworks,简称CNN)是人工神经网络 的一种,它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减 少了权值个数。是第一个真正成功训练多层网络结构的学习算法,它利用空间关系减少 需要学习的参数,W提高一般前向BP(反向传播)算法的训练性能。在中,一小部分数 据(局部感受野)作为层级结构的最低层输入,信息再依次传输到不同的层,每层通过一个 数字滤波器获得观测数据的最显著特征,据此能获取对平移、缩放和旋转不变的观测数据 的显著特征,因为数据的局部感受野允许神经元或处理单元可访问到最基础的特征。因此, 的主要特点是:卷积(通过局部感受野对层与层之间的节点进行局部连接)、权值共享 和池化(下采样)。而传统的BP神经网络中,每一层节点是一个线性的一维排列状态,层与 层的网络节点之间是全连接的。
[001引近年来,基于深度学习的卷积神经网络值kCNN)已经在模式分类与识别特别是 语音识别和图像识别等领域获得了巨大成功。具有自学习和自适应的能力,可W通过对 预先提供的一批相互对应的输入、输出数据进行特征抽取,分析掌握两者之间潜在的规律, 该种过程称为网络的"训练"。对于新的数据,根据之前训练出来的规律可W直接进行检测 判决。因此,在语音或图像识别中,语音样本或图像像素可W直接作为网络的输入,避免了 传统识别算法中复杂的特征提取和数据重建过程。
[0019] 图1中,上面一层为第m层,下面一层为第m-1层。可W看出,第m层上的每个节点 都只与第m-1层对应区域的3个节点相连接,该个局部范围也叫做感受野,通过局部连接, 大大减少了权值连接个数,对于第m层上最左边一个节点的净输入,就等于所有与该一节 点相连接的上一层神经元节点值与对应的权值之积的累加,该样的计算过程称为卷积。权 值共享则是指在一张特征图上的所有神经元节点都与同一个卷积核相卷积,提取出了一种 特征,如果需要提取多种特征,那么每层就有了多张特征图。W图像识别为例,理论上将图 像利用不同的卷积核通过卷积之后得到了多个图像,然后直接利用该些图像进行分类,但 是该样计算量太大,利用池化(下采样)操作可W将数据量减小,同时在一定程度上保留原 有的图像特征。该里,池化的区域是不重叠的,而卷积的感受野是重叠的。
[0020] W美国纽约大学YannLe化n教授提出的基于的一个文字识别系统LeNet-5 为例,其网络结构如图2,包括输入层和输出层在内总共有8层。在卷积和子采样过程中, 卷积过程包括:用一个可训练的滤波器fy去卷积一个输入的图像(第一阶段是原始的输入 图像,后面的阶段就是卷积特征图),然后加一个偏置by,得到卷积层Cy;子采样过程包括: 每邻域4个像素求和变为1个像素,然后通过标量Ww加权,再增加偏置b,4,然后通过一 个Sigmoid激活函数,产生一个约缩小4倍的特征映射图Sw。中每一个特征提取层(C 层)都紧跟着一个用来求局部平均与二次提取的计算层(S层),该种特有的两次特征提取 结构使网络在识别时对输入样本有较高的崎变容忍能力。

【发明内容】

[0021] 发明目的;为了克服现有技术中存在的不足,本发明提供一种能够直接解调超奈 奎斯特速率调制信号的高性能解调器,用于克服现有的通信系统频谱利用率和能量利用率 低的技术问题。
[0022] 我们注意到:
[0023] 1)M进制码元通信信号的解调通常只是最多M个码元的分类,因而理论上比图像 识别等情形要简单得多;
[0024] 2)超奈奎斯特速率通信或带限信道对于传输信号的作用过程就是卷积,因而CNN 应该也适合于该种情形;
[0025] 3)信道带宽的限制和码间干扰的影响,使得超奈
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1