一种深度学习的放大转发协作网络能效性资源分配方法

文档序号:25358622发布日期:2021-06-08 15:17阅读:165来源:国知局
一种深度学习的放大转发协作网络能效性资源分配方法

1.本发明属于无线协作通信技术领域,具体为一种深度学习的放大转发协作网络能效性资源分配方法。


背景技术:

2.随着5g通信技术的快速发展,复杂的网络结构带来的高耗成为5g规模商用的拦路虎,如何改进技术,大幅减少5g网络高能耗刻不容缓。而协作通信技术在多用户环境下,每个单天线用户之间共享彼此的天线,从而形成一种虚拟的多天线系统,以实现发送分集,提高系统的传输性能。协作通信技术在5g通信领域具有非常广阔的应用前景。其中放大转发(amplify

and

forward,af)协作比解码转发(decoding

and

forward,df)协作网络部署更加便宜,对于网络运营商来说非常具有吸引力。而af协作技术研究中,中继选择和联合功率优化对提高网络能效有非常重要的意义。但是,一方面,af协作网络中源节点和多个中继节点的联合功率优化包括连续变量和组合变量,是一个非凸问题,现在的研究方法只有在已知源节点功率的前提下才能解决;另一方面,当从可用的中继节点中选择数量不固定的一组中继节点进行协作,并尝试在各自的功率约束下优化波束成型矢量时,只能使用穷举搜索(exhaustive search,es)法解决,这导致了极其高的复杂性。
3.深度学习利用足够的神经元和隐藏层来逼近复杂问题,是执行大量非凸和非线性问题的理想选择。因此,将深度学习应用于多中继af协作系统,对优化资源分配问题具有重要意义。


技术实现要素:

4.针对上述问题本发明提供了一种深度学习的放大转发协作网络能效性资源分配方法。
5.为了达到上述目的,本发明采用了下列技术方案:
6.本发明提供一个组合深度神经网络模型(combinational deep neural network,cdnn):包括两个独立的全连接(fully connected,fc)子网络,表示为sf1和sf2,两个子网络均由有限个子模块串联组成,sf1子网络用来决定中继节点的功率分配,该子网络除了最后一个子模块,其他子模块都由一个全连接层后跟双曲正切函数组成,该子网络最后一个子模块由一个全连接层后跟自定义的激活函数组成,最后一个子模块的隐藏节点数目和放大转发协作网络中潜在中继节点的数目相同,每一个输出对应一个中继节点功率分配;sf2子网络用于决定源节点的功率分配,该子网络除最后一个子模块,其他子模块都由一个全连接层后跟整流线性单元(relu)组成,该子网络最后一个子模块由一个全连接层跟一个自定义的激活函数组成,输出为源节点的功率。
7.本发明还提供一种深度学习的放大转发协作网络能效性资源分配方法,包括以下步骤:
8.步骤1,建立放大转发协作网络最小化能耗的源节点与中继节点功率分配联合优
化模型;
9.步骤2,构建组合深度神经网络模型;
10.步骤3,对构建的组合深度神经网络模型进行训练;
11.步骤4,用训练学习到的组合深度神经网络模型进行测试。
12.进一步,所述步骤1中放大转发协作网络最小化能耗的源节点与中继节点功率分配联合优化模型的建立包括以下步骤:
13.(1)放大转发协作网络系统总速率的计算;
14.(2)放大转发协作网络最小化能耗的源节点与中继节点功率分配联合优化模型的建立。
15.更进一步,所述步骤(1)中放大转发协作网络系统包括一个源节点和一个目的节点,n个潜在中继节点;所述放大转发协作网络系统总速率的计算,包括如下过程:
16.假定源节点到目的节点、源节点到所有潜在中继节点、所有潜在中继节点到目的节点间的信道状态已知;
17.进一步假设传输时隙分成两部分,在第一部分时间段,源节点广播信息到目的节点及所有潜在中继节点,称广播阶段;在第二部分时间段,中继节点转发从源节点接收的信息,称协作阶段;
18.在广播阶段,源节点发射信号x,目的节点和任一中继节点接收的信号分别为:
[0019][0020][0021]
式中,p
s
为源节点的发射功率,假设源节点发射的信号x的幅值为1,h
s,d
和h
s,i
分别是源节点到目的节点、源节点到中继节点i的信道增益,w
s,d
和w
s,i
是在广播阶段,目的节点及中继节点i的接收噪声;假设所有中继节点和目的节点接收的噪声服从复高斯分布,均值为零;
[0022]
在协作阶段,目的节点接收中继节点放大转发的信号为:
[0023][0024]
式中,中继节点接收噪声的方差;h
i,d
是中继节点i到目的节点的信道增益;w
r,d
是目的节点在协作阶段的接收噪声,是中继节点i的功率归一化因子;向量是所有潜在中继节点的转发功率向量,[
·
]
t
表示矩阵或向量取转置,α
i
表示中继节点i的转发功率,向量向量
[0025]
合并式(1)和(3),可以得到:
[0026][0027]
根据式(4),得到目的节点的信噪比:
[0028][0029]
式中,表示目的节点接收噪声的方差,h
h
表示向量h取转置,f
h
表示向量f取转置;w
h
表示向量w取转置;
[0030]
放大转发协作网络系统目的节点的得到的总速率为:
[0031]
r
d
=blog2(1+γ
d
)
ꢀꢀꢀ
(6)
[0032]
式中,b为信道的带宽。
[0033]
所述步骤(2)中放大转发协作网络最小化能耗的源节点与中继节点功率分配联合优化模型及约束条件为:
[0034][0035]
满足:r
d
≥r
th
ꢀꢀꢀ
(7b)
[0036]
0<p
s
<p
smax
ꢀꢀꢀ
(7c)
[0037][0038][0039]
式中,f
h
f表示所有中继节点的功率和,r
th
表示系统速率要求,p
smax
是源节点的功率阈值,表示每个中继节点的转发功率的阈值,是所有中继节点转发功率和的阈值;(7b)表示放大转发协作网络系统所需的速率约束;(7c)表示源节点的功率约束;(7d)表示每个中继节点的功率限制;(7e)表示所有中继节点的总功率约束。
[0040]
进一步,所述一种深度学习的放大转发协作网络能效性资源分配方法的步骤2中构建的组合深度神经网络模型用于决定源节点和中继节点的功率分配的具体步骤如下:
[0041]
(1)将归一化的信道增益一维向量包括源节点到目的节点,源节点到所有潜在中继节点,及所有潜在中继节点到目的节点的信道增益,分别输入到sf1和sf2子网络;
[0042]
中的元素是由信道增益|h
i,j
|2转换成db,然后统一归一化成均值为零,方差为1的向量计算公式如下:
[0043][0044]
(2)输入到sf1一维向量经sf1中串联的子模块处理,sf1最后一个子模块的全连
接层输出的向量馈送到自定义的激活函数,输出各个中继节点的发射功率,该激活函数将负的输出功率值设置为0,当输出功率值为0时,对应的潜在中继节点不参与协作传输,这样,同时完成中继节点选择和功率分配;
[0045]
(3)输入到sf2一维向量经sf2中串联的子模块处理,sf2最后一个子模块的全连接层的输出馈送到一个自定义的激活函数,输出的数目为1,完成源节点的功率分配。
[0046]
更进一步,所述步骤(2)中中继节点选择和功率分配的具体步骤为:
[0047]
将sf1最后一个子模块的全连接层的输出的向量x
sf1
馈送到如下激活函数
[0048][0049]
式中,α
i
为中继节点i分配的功率,通过式(9),把输出的负值设置为0,保证中继节点i的功率满足限制条件(7d)满足;[x
sf1
]
i
表示向量x
sf1
的第i个值,如果α
i
=0,表示中继节点i不参与协作传输。
[0050]
所述步骤(3)中源节点的功率分配的具体步骤为:
[0051]
sf2的最后一个子模块中全连接层的输出x
sf2
被馈送到一个自定义的激活函数,输出表示为
[0052][0053]
式中,为sf2最后一个子模块的隐藏节点数目;p
s
∈(0,p
smax
)是源节点的发射功率,限制条件(7c)满足;[x
sf2
]
i
表示向量x
sf2
的第i个值。
[0054]
进一步,所述一种深度学习的放大转发协作网络能效性资源分配方法的步骤3中对构建的组合深度神经网络模型进行训练的过程为:将多个样本作为一组训练数据输入组合深度神经网络模型,然后,使用自适应矩估计来训练,当组合深度神经网络模型无法连续超过设定的基线时,训练算法将停止。为了达到最小化系统能耗的目标,同时满足系统速率要求和中继节点总功率约束,在对组合深度神经网络模型训练过程中需要用以下损失函数来同步更新两个子网络的网络参数:
[0055][0056]
式中,e{
·
}表示对一组训练数据求均值;0≤λ1≤1,0≤λ2≤1和0≤λ3≤1是控制参数;[x]
+
=max(x,0);[r
th

r
d
]
+
对应限制条件(7b),如果满足,值为0;对应限制条件(7e),如果满足,值为0;(f
h
f+p
s
)对应公式(7a);θ1为sf1的所有权重和偏置的集合,θ2为sf2的所有权重和偏置的集合;
[0057]
最小化损失函数过程中,反向不断对θ1和θ2进行更新,如下:
[0058][0059][0060]
其中,0<β1<<1和0<β2<<1分别表示相应的学习率;t表示更新次数;表示
损失函数l对θ1取偏导数;表示损失函数l对θ2取偏导数;并且,和分别是sf1和sf2的初始权重和偏置。
[0061]
与现有技术相比本发明具有以下优点:
[0062]
1、本发明构建了一个组合式深度神经网络(cdnn),该网络包含两个独立的全连接(fc)子网络,分别用于确定源节点和单个中继节点的功率分配。然后,使用一个损失函数来同步更新这两个子网络的网络参数,该损失函数的设计考虑了最大转发功率和约束,以在不违反系统速率要求的情况下,最小化系统的总体能耗,从而联合学习源节点和中继节点的功率分配策略。
[0063]
2、本发明用改进的反正切函数作为cdnn模型输出层的激活函数,以逼近功率因子的分配。此外,用改进的整流线性单元(relu)进一步去除确定中继节点功率分配子网络的负输出功率值,从而可以同时完成中继节点选择及其功率分配,而且无需固定要选择的中继节点数目。
[0064]
3、通过仿真结果证明本发明提出的cdnn模型和传统的方法相比,在能效性能得到了提升。
附图说明
[0065]
图1为af协作系统模型;
[0066]
图2为本发明的组合深度神经网络模型图;
[0067]
图3为不同数目的潜在中继节点下的系统平均能效图;
[0068]
图4为不同数目的潜在中继节点下的系统中断概率图;
[0069]
图5为潜在中继数目为6时各种系统速率要求下的系统平均能效图。
具体实施方式
[0070]
下面结合本发明实施例和附图,对本发明实施例中的技术方案进行具体、详细的说明。应当指出,对于本领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干变型和改进,这些也应视为属于本发明的保护范围。
[0071]
实施例1
[0072]
建立放大转发协作网络最小化能耗的源节点与中继节点功率分配联合优化模型
[0073]
如图1所示,af系统包括一个源节点(source)和一个目的节点(destination),n个潜在中继节点(relay)参与协作。
[0074]
1、放大转发协作网络系统总速率的计算:
[0075]
假定af系统源节点到目的节点、源节点到所有潜在中继节点、所有潜在中继节点到目的节点间的信道状态已知。
[0076]
进一步假设传输时隙分成两部分,在第一部分时间段,源节点广播信息到目的节点及所有潜在中继节点,称广播阶段;在第二部分时间段,中继节点转发从源节点接收的信息,称协作阶段;
[0077]
在广播阶段,源节点发射信号x,目的节点和任一中继节点接收的信号分别为
[0078]
[0079][0080]
式中,p
s
为源节点的发射功率,假设源节点发射的信号x的幅值为1,h
s,d
和h
s,i
分别是源节点到目的节点、源节点到中继节点i的信道增益,w
s,d
和w
s,i
是在广播阶段,目的节点及中继节点i的接收噪声;假设所有中继节点和目的节点接收的噪声服从复高斯分布,均值为零;
[0081]
在协作阶段,目的节点接收中继节点放大转发的信号为:
[0082][0083]
式中,中继节点接收噪声的方差;h
i,d
是中继节点i到目的节点的信道增益;w
r,d
是目的节点在协作阶段的接收噪声,是中继节点i的功率归一化因子;向量是所有中继节点的转发功率向量,[
·
]
t
表示矩阵或向量取转置,α
i
中继节点i的转发功率,向量向量
[0084]
合并式(1)和(3),可以得到
[0085][0086]
根据式(4),得到目的节点的信噪比
[0087][0088]
式中,目的节点接收噪声的方差,h
h
表示向量h取转置,f
h
表示向量f取转置;w
h
表示向量w取转置。
[0089]
放大转发协作网络系统目的节点的得到的总速率为:
[0090]
r
d
=blog2(1+γ
d
)
ꢀꢀꢀ
(6)
[0091]
式中,b为信道的带宽。
[0092]
2、放大转发协作网络最小化能耗的源节点与中继节点功率分配联合优化模型的建立
[0093]
放大转发协作网络最小化能耗的源节点与中继节点功率分配联合优化模型及约
束条件为:
[0094][0095]
满足:r
d
≥r
th
ꢀꢀꢀ
(7b)
[0096]
0<p
s
<p
smax
ꢀꢀꢀ
(7c)
[0097][0098][0099]
式中,f
h
f表示所有中继节点的功率和,r
th
表示系统速率要求,p
smax
是源节点的功率阈值,表示每个中继节点的转发功率的阈值,是所有中继节点转发功率和的阈值;(7b)表示放大转发协作网络系统所需的速率约束;(7c)表示源节点的功率约束;(7d)表示每个中继节点的功率限制;(7e)表示所有中继节点的总功率约束。
[0100]
实施例2
[0101]
构建组合深度神经网络模型
[0102]
如图2所示,构建的cdnn模型包括两个独立的全连接子网络,表示为sf1和sf2,两个子网络分别由m1和m2个串联的子模块组成,sf1和sf2中的第i个子块的隐藏节点数分别表示为与。sf1子网络用来决定中继节点的功率分配,该子网络除了最后一个子模块,其他子模块都由一个全连接层后跟双曲正切函数组成,双曲正切函数表示为该子网络最后一个子模块由一个全连接层后跟一个自定义的激活函数组成,最后一个子模块的隐藏节点数目和放大转发协作网络中潜在的中继节点的数目相同,每一个输出决定一个中继节点功率分配;sf2子网络用于决定源节点的功率分配,该子网络除最后一个子模块,其他子模块都由一个全连接层后跟整流线性单元(relu)组成,该子网络最后一个子模块由一个全连接层跟一个自定义的激活函数组成,输出为源节点的功率。
[0103]
实施例3
[0104]
组合深度神经网络模型决定源节点和中继节点的功率分配,包括以下步骤:
[0105]
步骤1,将归一化的信道增益一维向量长度为2n+1,包括源节点到目的节点,源节点到所有潜在中继节点,及所有潜在中继节点到目的节点的信道增益,分别输入到sf1和sf2子网络;
[0106]
中的元素是由信道增益|h
i,j
|2转换成db,然后统一归一化成均值为零,方差为1的向量计算公式如下:
[0107][0108]
步骤2,输入到sf1一维向量经sf1中串联的子模块处理,sf1最后一个子模块的全连接层输出的向量馈送到自定义的激活函数,输出所有中继节点的发射功率,该激活函数将负的输出功率值设置为0,当输出功率值为0时,对应的中继节点不参与协作传输,这样,同时完成中继节点选择和功率分配;
[0109]
具体为:将sf1最后一个子模块的全连接层的输出的向量x
sf1
馈送到如下激活函数
[0110][0111]
式中,α
i
为中继节点i分配的功率,通过式(9),把输出的负值设置为0,保证中继节点i的功率满足限制条件(7d)满足;[x
sf1
]
i
表示向量x
sf1
的第i个值,如果α
i
=0,表示中继节点i不参与协作传输。
[0112]
步骤3,将sf2最后一个子模块的全连接层的输出馈送到一个自定义的激活函数,输出的数目为1,完成源节点的功率分配。
[0113]
具体为:sf2的最后一个子模块中全连接层的输出x
sf2
被馈送到一个自定义的激活函数,输出表示为
[0114][0115]
式中,为sf2最后一个子模块的隐藏节点数目;p
s
∈(0,p
smax
)是源节点的发射功率,限制条件(7c)满足;[x
sf2
]
i
表示向量x
sf2
的第i个值。
[0116]
实施例4
[0117]
组合深度神经网络模型的训练
[0118]
将k个样本作为一组训练数据输入组合深度神经网络模型,然后,使用自适应矩估计来训练,为了达到最小化系统能耗的目标,同时满足系统速率要求和中继节点总功率约束,在对组合深度神经网络模型训练过程中需要用以下损失函数来同步更新两个子网络的网络参数:
[0119][0120]
式中,e{
·
}表示对k个样本求均值;0≤λ1≤1,0≤λ2≤1和0≤λ3≤1是控制参数;[x]
+
=max(x,0);[r
th

r
d
]
+
对应公式(7b),当满足约束条件(7b),这部分引起的损耗变为零;对应公式(7e)当满足约束条件(7e)时,由这部分引起的损耗变为零;(f
h
f+p
s
)对应公式(7a),在满足(7b)(7e)的前提下,这部分引起的损耗越小越好;θ1为sf1的所有权重和偏置的集合,θ2为sf2的所有权重和偏置的集合;应当注意,太大λ2或λ3会降低cdnn的系统性能,因为优化将集中在满足约束项而不是优化特征函数上,而λ2或λ3太小将无法满足优化中的约束。
[0121]
对损失函数求最小化的极值过程中,反向不断对θ1和θ2进行更新,如下:
[0122][0123][0124]
其中,0<β1<<1和0<β2<<1分别表示相应的学习率;t表示更新次数;表示损失函数l对θ1取偏导数;表示损失函数l对θ2取偏导数;并且,和分别是sf1和sf2的初始权重和偏置。
[0125]
在训练过程中,当cdnn模型无法连续超过设置的基线(中断概率门限p
out
)时,训练算法将停止。然后,将学习到的cdnn模型保存下来进行测试。
[0126]
实施例5
[0127]
仿真测试能效性资源分配
[0128]
设p
smax
=20dbm,b=4hz,andb=4hz,and源节点的坐标设置为(x=0,y=0),目标节点的坐标为(x=20m,y=20m),然后n个潜在中继随机分布在坐标x=0~20m,y=0~20m的方形区域中。小尺度衰落使用均值为零且方差为1的独立且分布均匀的复高斯随机变量。路径损耗指数设置为κ=3。此外,生成10000个样本用于训练和测试。
[0129]
cdnn模型的参数设置见表1。
[0130]
表1 cdnn模型参数配置
[0131]
参数值k100p
out
5%m1,m23除sf1最后一个子模块为n256β1,β210
‑4λ1,λ2,λ
31[0132]
对比例
[0133]
为了评价本发明深度学习的放大转发协作网络能效性资源分配方法的性能优越性,将其与现有的“固定源节点功率”方案进行比较,“固定源节点功率”方案是将源节点功率设置为固定值,仅优化中继节点的功率。同时,为了评估基于反正切函数的激活层(称为“arctan cdnn”)的性能,还将它与称为“sigmoid cdnn”的基于sigmoid函数的激活层进行了比较,它们分别定义如下:
[0134][0135][0136]
首先,将系统速率要求设置为r
th
=2bit/s。图3和图4为不同中继节点的数目下的系统平均能效和中断概率的性能图。从图中可以看出,随着潜在中继数目的增加系统平均能效也在提高。而且,在中断概率没有变坏的情况下,所提出的cdnn模型可以获得比“固定源节点功率”方法更高的能效。对于“固定源节点功率”方案,当源节点设置低的发射功率(p
s
=0.05mw)时,中断概率的性能变差,系统平均能效变得很低。
[0137]
图5为系统在潜在中继的数目n=6的不同系统速率要求下的系统平均能效图。从图中可以看到,提出的基于反正切函数的激活层比基于sigmoid函数的激活层具有更高的系统平均能效。当系统速率要求增大,两者曲线之间的距离逐渐变小。
[0138]
表2为r
th
=2bit/s和r
th
=10bit/s时的功率分配示例。
[0139]
表2功率分配的示例(n=6,|h
s,d
|2=4.0*10
‑5)
[0140][0141]
从图5和表2,可以得出如下结论:提出基于反正切函数的激活层可以获得比基于sigmoid函数的激活层更好的功率分配因子,尤其是当无线节点以低发射功率进行通信时。
[0142]
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1