深度学习特征波束成形的制作方法

文档序号:26103295发布日期:2021-07-30 18:14阅读:217来源:国知局
深度学习特征波束成形的制作方法

各种实施例总体上涉及无线网络,并且更具体地涉及无线网络中的波束成形。



背景技术:

在发送器(通常被称为预编码)或接收器(通常被称为组合)处进行波束成形是一种用于减轻信道的有害影响并抑制干扰的有效技术。最佳的发送和接收波束成形被称为特征波束成形,并由信道协方差矩阵的特征值分解(evd)来确定。

在说明书和/或附图中可以找到的缩写在下面的具体实施方式部分的开始处进行定义。



技术实现要素:

本部分旨在包括示例,并不旨在进行限制。

根据一个实施例的示例,提供了一种方法,该方法包括:利用第一向量初始化第一递归神经网络;迭代地训练第一递归神经网络的一个或多个层的权重矩阵,其中w(t)是第一递归神经网络的层的对应于迭代t的的权重矩阵,并且其中w(t)至少基于信道协方差矩阵、第一向量、以及来自第一递归神经网络的的前一层的对应于迭代t-1的输出;并且基于来自第一递归神经网络的收敛输出来确定第一特征向量,其中该第一特征向量被用来执行用于对多输入多输出接收和/或发送的波束成形。

根据实施例的另一示例,一种计算机可读介质,包括程序指令,该程序指令用于使装置至少执行以下操作:利用第一向量初始化第一递归神经网络;迭代地训练用于第一递归神经网络的一个或多个层的权重矩阵,其中w(t)是第一递归神经网络的层的对应于迭代t的权重矩阵,并且其中w(t)至少基于信道协方差矩阵、第一向量、以及来自第一递归神经网络的前一层的对应于迭代t-1的输出,并且基于来自第一递归神经网络的收敛输出来确定第一特征向量,其中该第一特征向量被用来执行用于多输入多输出接收和/或发送的波束成形。

根据实施例的另一示例,提供了一种装置,包括:用于利用第一向量初始化第一递归神经网络的部件;用于迭代训练第一递归神经网络的一个或多个层的权重矩阵的部件,其中w(t)是第一递归神经网络的层的对应于迭代t的权重矩阵,并且其中w(t)至少基于信道协方差矩阵、第一向量、以及来自第一递归神经网络的前一层的对应于迭代t-1的输出;以及用于基于来自第一递归神经网络的收敛输出来确定第一特征向量的部件,其中该第一特征向量被用来执行用于多输入多输出接收和/或发送的波束成形。

根据实施例的另一示例,提供了一种装置,该装置包括至少一个处理器;以及至少一个存储器,包括计算机程序代码,该至少一个非瞬态存储器和该计算机程序代码被配置为与该至少一个处理器一起使该装置执行至少以下操作:利用第一向量初始化第一递归神经网络;迭代地训练用于第一递归神经网络的一个或多个层的权重矩阵,其中w(t)是第一递归神经网络的层的对应于迭代t的权重矩阵,并且其中w(t)至少基于信道协方差矩阵、第一向量、以及来自第一递归神经网络的前一层的对应于迭代t-1的输出;并且基于来自第一递归神经网络的收敛输出来确定第一特征向量,其中该第一特征向量被用来执行用于多输入多输出接收和/或发送的波束成形。

附图说明

在附图中:

图1是在其中可以实践示例性实施例的可能的且非限制性的示例性系统的框图;

图2是根据示例性实施例的深度学习架构的示例;和

图3是根据示例性实施例的提取特征向量以在多层中进行发送的示例;

图4-图7示出了根据示例性实施例的与第一仿真场景相对应的数据;

图8-图11示出了根据示例性实施例的与第二仿真场景相对应的数据;和

图12是用于深度学习特征波束成形的逻辑流程图,并且图示了示例性方法的操作,在计算机可读存储器上体现的计算机程序指令的执行结果,由以硬件实现的逻辑所执行的功能和/或用于执行根据示例性实施例的功能的互连部件。

具体实施方式

在规范和/或附图中可以找到的以下缩写被定义如下:

3gpp第三代合作伙伴计划

5g第五代

5gc5g核心网络

amf访问和移动性管理功能

cu中央单元

du分布式单元

enb(或enodeb)演进型节点b(例如lte基站)

en-dce-utra-nr双重连接性

e-utra演进通用地面无线电接入,即lte无线电接入技术

gnb(或gnodeb)用于5g/nr的基站,即向ue提供nr用户平面和控制平面协议

终止并经由ng接口连接到5gc的节点

i/f接口

lte长期演进

mac媒体访问控制

mme移动性管理实体

n/w或nw网络

nce网络控制元件

ng或ng新一代

ng-enb新一代enb

nr新无线电

pdcp分组数据汇聚协议

phy物理层

ran无线电接入网络

rel版本

rlc无线电链路控制

rrc无线电资源控制

rrh远程无线电头

ru无线电单元

rx接收器

sdap服务数据适配协议

sgw服务网关

smf会话管理功能

ts技术规范

tx发送器

ue用户设备(例如无线设备,通常是移动设备)

upf用户平面功能

词语“示例性”在本文中被用来意指“充当示例、实例或例示”。本文中被描述为“示例性”的任何实施例不一定被解释为比其他实施例优选或有利。在该具体实施方式中描述的所有实施例是示例性实施例,提供这些示例性实施例是为了使本领域技术人员能够制造或使用本发明,而不是限制由权利要求书限定的本发明的范围。

本文的示例性实施例描述了用于深度学习特征波束成形的技术。在描述了在其中可以使用示例性实施例的系统之后,呈现了这些技术的附加描述。

转向图1,该图示出了在其中可以实践示例性实施例的一个可能的且非限制性的示例性系统的框图。用户设备(ue)110、无线电接入网络(ran)节点170和网络控制元件(nce)190被例示出。在图1中,用户设备(ue)110与无线网络100进行无线通信。ue是可以接入无线网络的无线设备,通常是移动设备。ue110包括一个或多个处理器120、一个或多个存储器125以及通过一个或多个总线127互连的一个或多个收发器130。一个或多个收发器130中的每一个包括接收器rx132和发送器tx133。一个或多个总线127可以是地址总线、数据总线或控制总线,并且可以包括任何互连机制,诸如母板或集成电路上的一系列线路、光纤或其他光通信设备等。一个或多个收发器130连接到一个或多个天线128。一个或多个存储器125包括计算机程序代码123。ue110包括bf模块,其包括可以以多种方式来实现的部分140-1和/或140-2中的一个或二者。bf模块可以以硬件被实现为bf模块140-1,诸如被实现为一个或多个处理器120的一部分。bf模块140-1还可以被实现为集成电路或通过诸如可编程门阵列之类的其他硬件来实现。在另一个示例中,bf模块可以被实现为bf模块140-2,其被实现为计算机程序代码123并且由一个或多个处理器120执行。例如,一个或多个存储器125和计算机程序代码123可以被配置为与一个或多个处理器120一起使用户设备110执行本文所述的一个或多个操作。ue110经由无线链路111来与ran节点170通信。

ran节点170是提供诸如ue110之类的无线设备到无线网络100的接入的基站。ran节点170可以例如是用于5g的基站,也被称为新无线电(nr)。在5g中,ran节点170可以是ng-ran节点,其被定义为gnb或ng-enb。gnb是提供朝向ue的nr用户平面和控制平面协议终端的节点,并且经由ng接口连接到5gc(例如,(一个或多个)nce190)。ng-enb是朝向ue提供e-utra用户平面和控制平面协议终端的节点,并经由ng接口连接到5gc。ng-ran节点可以包括多个gnb,gnb还可以包括中央单元(cu)(gnb-cu)196和(一个或多个)分布式单元(du)(gnb-du)——其中的du195被示出。注意,du可以包括或耦合到无线电单元(ru)并控制无线电单元(ru)。gnb-cu是托管gnb的rrc、sdap和pdcp协议或en-gnb的rrc和pdcp协议的逻辑节点,该逻辑节点控制一个或多个gnb-du的操作。gnb-cu终止与gnb-du连接的f1接口。f1接口被例示为附图标记198,但是附图标记198还例示了ran节点170的远程元件与ran节点170的集中元件之间(诸如在gnb-cu196和gnb-du195之间)的链路。gnb-du是托管gnb或en-gnb的rlc、mac和phy层的逻辑节点,并且其操作部分地由gnb-cu控制。一个gnb-cu支持一个或多个小区。一个小区仅由一个gnb-du支持。gnb-du终止与gnb-cu连接的f1接口198。注意,du195被认为包括例如作为ru一部分的收发器160,但是其一些示例可以具有例如在du195的控制下并连接到du195的作为单独ru一部分的收发器160。ran节点170还可以是用于lte(长期演进)的enb(演进型nodeb)基站,或者可以是任何其他合适的基站。

ran节点170包括一个或多个处理器152、一个或多个存储器155、一个或多个网络接口(n/wi/f)161以及通过一个或多个总线157互连的一个或多个收发器160。一个或多个收发器160中的每一个包括接收器rx162和发送器tx163。一个或多个收发器160连接到一个或多个天线158。一个或多个存储器155包括计算机程序代码153。cu196可以包括(一个或多个)处理器152、存储器155和网络接口161。注意,du195也可以包含其自己的一个或多个存储器和(一个或多个)处理器和/或其他硬件,但是这些未被示出。

ran节点170包括bf模块,其包括可以以多种方式实现的部分150-1和/或150-2中的一者或二者。bf模块可以以硬件被实现为bf模块150-1,诸如被实现为一个或多个处理器152的一部分。bf模块150-1还可以被实现为集成电路或通过诸如可编程门阵列之类的其他硬件来实现。注意,bf模块的功能可以被分布,诸如被分布在du195和cu196之间,或者仅被实现在du195中。在另一个示例中,bf模块可以被实现为bf模块150-2。其被实现为计算机程序代码153并且由一个或多个处理器152执行。例如,一个或多个存储器155和计算机程序代码153被配置为与一个或多个处理器152一起使ran节点170执行本文所描述的一个或多个操作。

一个或多个网络接口161通过诸如链路176和131之类的网络进行通信。两个或更多gnb170使用例如链路176进行通信。链路176可以是有线的或无线的或者两者,并且可以实现例如用于5g的xn接口、用于lte的x1接口或用于其他标准的其他合适接口。

一个或多个总线157可以是地址总线、数据总线或控制总线,并且可以包括任何互连机制,例如主板或集成电路上的一系列线路、光纤或其他光通信设备、无线信道等等。例如,一个或多个收发器160可以被实现为用于lte的远程无线电头(rrh)195或用于5g的gnb实现的分布式单元(du)195,而ran节点170的其他元件可能在物理上处于与rrh/du不同的位置,并且一个或多个总线157可以被部分地实现为例如光缆或其他合适的网络连接,以将ran节点170的其他元件(例如,中央单元(cu)、gnb-cu)连接到rrh/du195。附图标记195还指示那些合适的(一个或多个)网络链路。

注意,本文的描述指示“小区”执行功能,但是应当清楚,形成小区的基站将执行功能。小区构成基站的一部分。也就是说,每个基站可以有多个小区。例如,对于单个载波频率和关联的带宽,可以有三个小区,每个小区覆盖360度区域的三分之一,因此单个基站的覆盖区域覆盖大约椭圆形或圆形。此外,每个小区可以对应于单个载波,并且基站可以使用多个载波。因此,如果每个载波有三个120度小区并且存在两个载波,那么基站总共有6个小区。

无线网络100可以包括一个(或多个)网络控制元件(nce)190,其可以包括核心网络功能性,并且其经由一个或多个链路181提供与诸如电话网络和/或数据通信网络(例如互联网)之类的另一网络的连接性。用于5g的此类核心网络功能性可以包括接入和移动性管理功能(amf)和/或用户平面功能(upf)和/或会话管理功能(smf)。用于lte的这种核心网络功能性可以包括mme(移动性管理实体)/sgw(服务网关)功能性。这些仅是可以由(一个或多个)nce190支持的示例性功能,并且注意,5g和lte功能可能均被支持。ran节点170经由链路131而被耦合到nce190。链路131可以被实现为例如用于5g的ng接口或用于lte的s1接口,或用于其他标准的其他合适的接口。nce190包括通过一个或多个总线185互连的一个或多个处理器175、一个或多个存储器171以及一个或多个网络接口(n/wi/f)180。一个或多个存储器171包括计算机程序代码173。一个或多个存储器171和计算机程序代码173被配置为与一个或多个处理器175一起使nce190执行一个或多个操作。

无线网络100可以实现网络虚拟化,这是将硬件和软件网络资源以及网络功能组合成单个基于软件的管理实体(虚拟网络)的过程。网络虚拟化涉及平台虚拟化,通常与资源虚拟化相组合。网络虚拟化可以被分类为:外部的,将许多网络或网络的各部分组合到虚拟单元中;或内部的,将类似于网络的功能性提供给单个系统上的软件容器。注意,仍然在某种程度上使用诸如处理器152或175以及存储器155和171之类的硬件来实现由网络虚拟化产生的虚拟化实体,并且这种虚拟化实体也产生技术效果。

计算机可读存储器125、155和171可以是适合于本地技术环境的任何类型,并且可以使用任何适当的数据存储技术来实现,诸如基于半导体的存储器设备、闪存、磁存储器设备和系统、光存储器设备和系统、固定存储器和可移动存储器。计算机可读存储器125、155和171可以是用于执行存储功能的部件。处理器120、152和175可以是适合本地技术环境的任何类型,并且作为非限制性示例,可以包括通用计算机、专用计算机、微处理器、数字信号处理器(dsp)和基于多核处理器架构的处理器中的一个或多个。处理器120、152和175可以是用于执行诸如控制ue110、ran节点170之类的功能和本文所描述的其他功能的部件。

通常,用户设备110的各个实施例可以包括但不限于诸如智能电话之类的蜂窝电话、平板计算机、具有无线通信能力的个人数字助理(pda)、具有无线通信能力的便携式计算机、具有无线通信能力的图像捕获设备诸如数码相机、具有无线通信能力的游戏设备、具有无线通信能力的音乐存储和播放设备、允许无线互联网访问和浏览的互联网设备、具有无线通信能力的平板计算机以及将这种功能的组合合并在一起的便携式单元或终端。

因此,已经针对实践本发明的示例性实施例引入了一种合适但非限制性的技术上下文,现在将更加具体地描述示例性实施例。在下面的描述中使用以下标注:粗体大写字母指示矩阵;粗体小写字母指示(列)向量,而非粗体字母指示标量。上标的匕首符号指示埃米特运算符。

考虑一个具有k个发送实体和单个接收实体的系统,例如:

·在上行链路上下文中的k个发送用户和单个接收基站;或者

·分布式下行链路上下文中的k个发送基站和单个接收用户。

每个发送实体具有nt个天线元件,而单个接收实体具有nr个天线元件。令以及nrf=nr个rf链。每个发送实体具有nl≤n个发送层。关于其发送是有意义的某个任意实体k,波束成形的接收信号向量为:

其中ρ是发送功率,是具有单位协方差矩阵(identitycovariancematrix)的符号向量,h是nr×nt复信道矩阵,f是在发送器处和在接收器处的nt×nl复预编码矩阵,w是nr×nl复组合矩阵。是复杂高斯噪声,而i表示干扰向量(来自其他实体的发送之和)。

感兴趣的是信道协方差矩阵的特征值分解该矩阵是nt×nt矩阵,假定n=nt≤nr(否则应定义)。注意,矩阵w和h的共轭转置(埃米特)分别被表示为

在这种情况下,

其中λ1>…>λn≥0特征值并且v1,...,vn是对应的特征向量。用于发送实体k的最佳预编码器为令u=hv是一个nr长度向量,则单个接收实体处的(单用户)最佳组合器为

一种执行evd的方案是经由幂迭代方法。给定任意向量:

v0=a1v1+…+anvn

并且a1≠0,意味着初始向量与主特征向量不正交,则

因此,如此揭示单模最优预编码器当特征值扩展更广时,幂迭代方法收敛更快,例如,对于更相关的信道协方差矩阵r并且在r矩阵的秩降低时。

u1确定单模最佳组合器也是如此。它可以直接经由或通过针对运行幂迭代来计算(假设n=nt≤nr,否则)

对于多层,假设找到主特征向量如前所述。现在,给定任意向量

v0=b1v1+…+bnvn,

这次b2≠0(即,它与第二主特征向量不正交),定义

因此,

因此,获得第二主特征向量并设置双模最优预编码器u2确定双模最佳组合器也是如此。这可以直接经由或通过针对运行幂迭代来实现(假设n=nt≤nr,否则)。对于3层,利用如下向量运行幂迭代

其中任意向量

且c3≠0,并设置针对更多层以此类推。

另一个方案是首先经由gram-schmidt过程对随机矩阵进行正交化,然后通过幂迭代来迭代地运行它,如以下伪代码中所实现的那样

1:v=大小为ntxnl的一些初始矩阵(例如randn(nt,nl)+1i*randn(nt,nl),其中1i标示)

2:对于t=1:max_iter

3:v=rv

4:v=gram_schmidt(v)

5:结束

本文所描述的各种示例实施例以成本有效的方式提供了对以上用于特征波束成形的幂迭代方案的改进。例如,各种示例实施例提供了一种具有学习的逐迭代权重矩阵的改进的幂迭代方法。一些示例实施例以有吸引力的计算复杂度产出了比经典幂迭代方法更卓越的性能,该计算复杂度仅在信道的协方差矩阵维度上是二次幂的,而不是像lanczos-gramschmidt和部分svd这样的其他经过检查的备选方案那样是三次幂的。本文所描述的一些技术也可以在tdd模式下被用于波束成形,而无需在发送器或接收器处具有明确的csi知识。应当指出,以成本有效的方式提供用于特征波束成形的改进的幂迭代在例如相关性较低(例如,朝向瑞利)的信道(其中,幂迭代预计会收敛得相当缓慢)中是特别重要的。

现在参照图2,示出了被称为rnn(递归神经网络(nn))的深度学习架构202以及rnn的展开版本(unfoldedversion)204。在图2中所示的示例rnn架构中,折叠版(foldedversion)202包括:输入层x;一个或多个隐藏层h;和输出层o。在rnn的展开版本204中,x(t)是时间步长t处的输入,并且是大小为n的向量。h(t)和o(t)分别是时间步长t处的隐藏状态和输出状态。w标示展开层的隐藏状态之间的连接权重,u标示输入层和隐藏层之间的连接权重,而v标示隐藏层和输出层之间的连接权重。

传统的幂迭代方法可以在不学习的情况下重算为rnn,即,nn权重跨nn层被保持固定。

例如,传统的幂迭代方法可以被表达为以下rnn:

·设置输入到隐藏的连接权重矩阵u=i(身份矩阵)

·设置隐藏到输出的连接权重矩阵v=i

·设置偏差向量b=0和c=0

·除输入x(0)外,全部x(t)=0

·放置身份激活函数(f(z)=z)。

·将隐藏到隐藏的权重矩阵w=r设置为跨(展开)层被固定。

因此,rnn权重被认为是未经训练的或未经学习的。从这个意义上讲,没有学习通常意味着适应性较差的神经网络o(t)=h(t)=wh(t-1)=rh(t-1)和x(0)=v0。

通过允许跨rnn层进行权重的适配或学习,可以显著改善此架构。为了使rnn从任意向量学习evd,上述rn被如下改变:

·按以下方式,将隐藏到隐藏的权重矩阵设置为从上一(展开)层的输出中被学习:

其中α是学习率并且o(t)=h(t)=w(t)h(t-1)和x(0)=v0。

在一些示例实施例中,可以基于一个或多个性能优点(performancemerit),诸如最小化所推断的特征向量的rmse,来自适应地适配学习速率。

这样选择的学习(埃米特)矩阵w(t)确实会产出所期望的主特征向量r作为其固定点:

针对其隐藏状态的导数为零的固定点h(∞)可以通过以下方法找到:

注意,r的任何特征向量h(∞)=v都可以求解上述等式,因为

现在,用任意向量x(0)=v0=a1v1+…+anvn输入rnn,并且a1≠0,那么:

因此,给定与主特征向量r不正交的输入向量,rnn收敛到该主特征向量。正如可以预期的,仿真结果表明,使用所学习的权重w(t)而不是像幂迭代(即固定)中那样使用未学习的权重,基本上可以加快rnn的收敛速度。

现在参照图3,该图示出了用于在多层中进行发送的实施例的示例。为了在多层中发送,可以将另一个相同的rnn与不同的初始化级联,即:

其中v0=b1v1+…+bnvn且b2≠0,以及o(∞)是前一个rnn的收敛输出。因此,如多层中的幂迭代所示,该rnn的输出将收敛到第二主特征向量。在图2中所示的示例中,三个rnn200被级联以获得对应于三个层的特征向量。然而,这并非旨在是限制性的,并且应当理解,随着层数(即,期望的特征向量)将构成最优波束成形器,许多rnn可以被级联。

根据一些示例实施例的所提出的方案通过在幂迭代方法中将矩阵r替换为学习的从而改进了幂迭代方法,如在例如以下伪代码中所述:

1:

2:v0=0

3:α是一个(通常很小的)标量

4:对于l=1:nl

5:

6:对于t=1:max_iter

7:

8:

9:结束

10:vl=h(max_iter)

11:结束

12:预编码器

13:组合器wopt=hfopt

与幂迭代方法类似,根据一些示例实施例,所提出的方案也可以与gram-schmidt正交化过程一起被使用,例如,如在以下伪代码中所示:

1:

2:α是一个(通常很小的)标量

v=大小为ntxnl的一些初始矩阵

4:对于t=1:max_iter

5:

6:

7:

8:结束

9:预编码器

10:组合器wopt=hfopt

对于tdd系统,所提出的方案的一个属性是,由于信道互易性,在收发器的任一侧都不需要csi。在tdd系统中,根据一些实施例的所提出的方案可以通过来回对随机发送进行回波直到收敛到特征波束成形向量来执行。

复杂度

根据一些示例实施例,可以经由现有的基于幂迭代的硬件架构来实现基于rnn的波束成形。例如,这可以通过将幂迭代实现中的固定r矩阵替换为学习的w(t)矩阵来完成。一方面,与如幂迭代中的固定r相比,在每次迭代中计算rnn的w(t)会存在附加的开销。另一方面,由于更快收敛,使用rnn所需要的迭代次数通常减少。

令利用幂迭代达到某个估计误差所需的迭代次数为t,并且利用rnn达到所需的迭代次数为c·t(0<c<1)。然后,为了计算w(t)总体上增加了次操作,同时由于rnn的更快收敛无需计算rh(t-1)达(1-c)·t次从而节省了次操作。因此只要

与标准幂迭代相比,rnn实现不仅可以提高性能,而且可以节省操作,或者,即

其对于较大的nr,产生现在详述数值仿真,其示出了当使用各种示例实施例的方案时确实观察到这种加速的收敛。

在一些示例实施例中,可以在线地或周期性地且足够频繁地进行rnn的训练,以保持对任何信道空间相关性变化的跟踪,即,保持对波束方向性的跟踪。例如,诸如通过用户设备(例如,ue110)或者通过基站(例如,ran节点170),可以在边缘设备内执行对rnn的训练。在一些示例中,诸如当信道相对缓慢地变化时,还可以经由一个或多个计算机(例如,诸如经由云架构)来执行训练,然后可以将权重分配给边缘设备。

性能仿真

在第一个所仿真情况中:nt=2,nr=64,nl=2,在64×2的瑞利信道的1000个实现中对h取平均,对于主(第二主)特征向量,学习率被固定为α=0.1(0.05),并且对所有检查方法均使用相同的初始化,即采取具有最大范数的r的(归一化)列的形式。

图4绘制了估计的主特征向量的归一化内积,它是使用四种不同方法(即幂迭代、深度学习部分svd和lanczosgs)的迭代次数的函数。图4示出了针对四个特定条目的图,即:(64个中的)1、17、33和49。从图4中可以看出,与传统的幂迭代方案相比,基于深度学习的方案具有更快的收敛。

图5绘制了估计的第二主特征向量的归一化内积,它是使用四种不同方法的迭代次数的函数。类似于图4,与用于第二主特征向量的传统的幂迭代方案相比,基于深度学习的方案具有更快的收敛。

图6示出了经由四种检查方法相对于迭代次数来估计主特征向量的(归一化)内积时的均方根误差(rmse)。从图6中可以看出,所提出的深度学习驱动方案展现出比普通幂迭代方法总体上更好的性能,并且具有可比较的二次复杂度阶。其他两种方法虽然产出较低的rmse,但是要求更多的数量级的计算。具体地,部分svd和lanczosgs方法具有三次方而不是二次复杂度阶。

图7示出了经由四种检查方法相对于迭代次数来估计第二主特征向量的(归一化)内积时的均方根误差(rmse)。图7中的行为针对第二主特征向量类似于图6。

在第二个仿真情况下,使用与第一个仿真情况相同的设置,但具有4个发送天线,即nt=4,对于主(第二主)特征向量,学习率被固定为α=0.11(0.145)。通过采取最大范数的r的(归一化)列对所有检查方法均使用相同的初始化。

图8和图9分别示出了针对第二个仿真情况的估计的主特征向量和第二主特征向量的归一化内积;并且图10-图11分别示出了针对第二个仿真情况的经由四种检查方法相对于迭代次数来估计主特征向量和第二主特征向量的(归一化)内积时的均方根误差(rmse)。类似于图4-图7,图8-图11示出了深度学习技术的性能优于幂迭代技术,同时其复杂度远低于其他两种技术(即部分svd和lanczosgs)。

关于学习率,在一些示例实施例中,学习率可以被自动适配,而不是像在第一个和第二个仿真情况下那样保持固定。例如,可以使用任何合适的算法(诸如adagrad(自适应梯度))来动态地确定学习率α。

图12是用于深度学习特征波束成形的逻辑流程图。该图还例示出了一个或多个示例性方法的操作,在计算机可读存储器上体现的计算机程序指令的执行结果,由以硬件实现的逻辑所执行的功能和/或用于执行根据示例性实施例的功能的互连部件。例如,bf模块140-1和/或140-2(和/或bf模块150-1和/或150-2)可以包括图12中的多个块,其中每个所包括的块是用于执行该块中的功能的互连部件。图12中的块被假设例如分别在bf模块140-1和/或140-2以及bf模块150-1和/或150-2的控制下至少部分地由ue110和/或ran节点170执行。

根据一个实施例的示例(其可以被称为示例1),提供了一种方法,包括:如块1202所指示,利用第一向量初始化第一递归神经网络;如块1204所指示,迭代地训练用于第一递归神经网络的一个或多个层的权重矩阵,其中w(t)是第一递归神经网络的层的对应于迭代t的权重矩阵,并且其中w(t)至少基于信道协方差矩阵、第一向量、以及来自第一递归神经网络的前一层的对应于迭代t-1的输出;并且如块1204所指示,基于来自第一递归神经网络的收敛输出来确定第一特征向量,其中该第一特征向量被用来执行用于多输入多输出接收和/或发送的波束成形。

另一个实施例的示例(可以称为示例2)是示例1中的方法,该方法包括:使用一系列的一个或多个其他递归神经网络来确定一个或多个其他特征向量,其中:一个或多个其他递归神经网络与第一递归神经网络相同,并且每个其他递归神经网络利用第二向量被初始化,其中该第二向量至少基于先前的递归神经网络的收敛输出。

另一个实施例的示例(可以称为示例3)是示例2中的方法,其中存在以下中的至少一项:一个或多个其他特征向量的数目对应于在发送多输入多输出接收和/或发送中使用的数据层的数目;以及一个或多个其他特征向量包括所有剩余的特征向量。

另一个实施例的示例(可以称为示例4)是示例2-3中任何一个的方法,其中存在以下中的至少一项:gram–schmidt过程被应用于至少第一特征向量和一个或多个其他特征向量;并且迭代地训练权重矩阵包括应用幂迭代方法。

另一个实施例的示例(可以称为示例5)是示例1-4中任何一个的方法,其中权重矩阵w(t)包括埃米特特矩阵。

另一实施例的一个示例(可以称为示例6)是示例1-5中任何一个的方法,其中信道协方差矩阵至少基于:发送实体的天线元件的数目和两个或更多接收实体中的每个接收实体的天线元件的数目;以及两个或更多发送实体的天线元件的数目和接收实体的天线元件的数目。

另一个实施例的示例(可以称为示例7)是示例1-6中任何一个的方法,其中权重矩阵w(t)还基于学习率。

另一个实施例的示例(其可以被称为示例8)是示例7中的方法,其中学习率α是固定的或基于一个或多个性能特性而被动态地适配。

另一个实施例的示例(可以称为示例9)是示例1-8中任何一个的方法,其中第一特征向量被用于在不具有显式信道状态信息知识的情况下在发送器和/或接收器处执行波束成形。

在示例实施例中,提供了一种装置(其可以被称为示例10),该装置包括:用于利用第一向量初始化第一递归神经网络的部件;用于迭代地训练用于第一递归神经网络的一个或多个层的权重矩阵的部件,其中w(t)是第一递归神经网络的层的对应于迭代t的权重矩阵,并且其中w(t)至少基于信道协方差矩阵、第一向量、以及来自第一递归神经网络的前一层的对应于迭代t-1的输出;以及用于基于来自第一递归神经网络的收敛输出来确定第一特征向量的部件,其中该第一特征向量被用来执行用于多输入多输出接收和/或发送的波束成形。

其他实施例的示例(其可以被称为示例11)是示例10)中的装置,其还包括用于执行示例2-9中的任何一个中的方法的部件。

其他实施例的示例(可以称为示例12)是一种计算机可读介质,包括程序指令,该程序指令用于使装置至少执行以下操作:利用第一向量初始化第一递归神经网络;迭代地训练用于第一递归神经网络的一个或多个层的权重矩阵,其中w(t)是第一递归神经网络的层的对应于迭代t的权重矩阵,并且其中w(t)至少基于信道协方差矩阵;第一向量;以及来自所述第一递归神经网络的前一层的对应于迭代t-1的输出;并且基于来自第一递归神经网络的收敛输出来确定第一特征向量,其中该第一特征向量被用来执行用于多输入多输出接收和/或发送的波束成形。

另一个实施例的示例(可以称为示例13)是示例12中的计算机可读介质,其中程序指令还使装置执行示例2-9中的任何一个中的方法。

在示例实施例(可以称为示例14)中,提供了一种装置,该装置包括:至少一个处理器;以及包括计算机程序代码的至少一个非瞬态存储器,该至少一个存储器和该计算机程序代码被配置为与该至少一个处理器一起使该装置执行至少:利用第一向量初始化第一递归神经网络;迭代地训练用于第一递归神经网络的一个或多个层的权重矩阵,其中w(t)是第一递归神经网络的层的对应于迭代t的权重矩阵,并且其中w(t)至少基于信道协方差矩阵、第一向量、以及来自第一递归神经网络的前一层的对应于迭代t-1的输出,并且基于来自第一递归神经网络的收敛输出来确定第一特征向量,其中该第一特征向量被用来执行用于多输入多输出接收和/或发送的波束成形。

另一个实施例的示例(可以称为示例15)是示例14中的装置,其中还使该装置执行示例2-9中的任何一个中的方法。

在不以任何方式限制下面出现的权利要求的范围、解释或应用的情况下,本文公开的一个或多个示例实施例的技术效果是,提供了经由rnn训练的特征波束成形的更准确的实现(正如长期bf)。与广泛应用的幂迭代方法相比,本文公开的一个或多个示例实施例的另一技术效果是,提供了更快的收敛和更有效的计算方案。本文公开的一个或多个示例实施例的另一技术效果是,可以使用现有的幂迭代架构来实现所提出的方案。本文公开的一个或多个示例实施例的另一技术效果是,所提出的方案具有二次幂而不是三次幂的复杂度阶,并且因此展现出有吸引力的性能-复杂度折衷。

本文中的实施例可以以软件(由一个或多个处理器执行)、硬件(例如,专用集成电路)或者软件和硬件的组合来实现。在示例实施例中,软件(例如,应用逻辑、指令集)被维持在各种传统的计算机可读介质中的任何一个上。在本文的上下文中,“计算机可读介质”可以是可以包含、存储、传递、传播或传输以供指令执行系统、装置或设备(诸如,计算机)使用或者与其结合使用的任何介质或部件,并且计算机的一个示例例如在图1中被描述和描绘。计算机可读介质可以包括计算机可读存储介质(例如,存储器125、155、171或其他设备),其可以是可以包含、存储和/或传输指令以供指令执行系统、装置或设备(诸如,计算机)使用或者与其结合使用的任何介质或部件。计算机可读存储介质不包括传播信号。

如果需要的话,本文讨论的不同功能可以以不同顺序执行和/或彼此并发地执行。此外,如果需要的话,上述功能中的一个或多个可以是可选的或者可以组合。

尽管在独立权利要求中陈述了本发明的各个方面,但是本发明的其他方面包括来自所描述的实施例和/或从属权利要求的特征与独立权利要求的特征的其他组合,而不是仅仅在权利要求中明确陈述的组合。

在本文中还要注意的是,尽管上文描述了示例实施例,但是这些描述不应该被视为限制性的。相反,存在可以在不脱离所附权利要求限定的本发明的范围的情况下做出的若干变型和修改。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1