基于流量感知的网络切片配置方法与流程

文档序号:32484111发布日期:2022-12-10 00:22阅读:140来源:国知局
基于流量感知的网络切片配置方法与流程

1.本发明属于网络通信技术领域,具体涉及一种基于流量感知的网络切片配置方法。


背景技术:

2.未来5g业务的多样化发展将存在信道、流量需求、业务场景等很多不确定因素。5g核心网云化、网络切片等资源灵活分配手段,是当前运营商提高用户服务质量、增加网络性能的法宝。很多学者在该领域进行相关的研究。falahatraftar等人在5g应用场景下提出一种基于条件生成对抗网络的异构车辆网络切片方法;及翠婷等人在农业网监控传输领域提出一种多元化信息的5g切片传输方案;barakabitze等人提出基于sdn和nfv的5g切片方案并提供开源代码编程器;abidi等人提出一种基于机器学习和深度学习的5g切片方案,基于深度学习实现最优加权特征提取并提出一个有效的网络切片混合学习算法;高亮等人提出一种基于sdn的网络资源管理方法,其仿真结果显示带宽资源利用率明显提高。上述研究大多数从业务请求的动态变化来实现网络资源的分配,却没有结合当前业务流量的感知角度,即仅仅采用简单方法预测的网络未来负载状态来分配资源。上述方法有可能出现vnf(virtual network feature,虚拟网络功能)频繁迁移问题,即系统一旦出现网络流量过载,为了保证业务可靠性,系统开始启动数据重定向,从而实现数据快速迁移。而vnf频繁迁移必然占用大量计算资源和存储资源,降低系统性能,增加用户使用的业务时延。因此,基于上述需求,有必要提出一种解决方案类预测未来业务对资源的动态需求,来降低由于业务请求动态变化引起的vnf迁移频率。


技术实现要素:

3.本发明意在提供一种基于流量感知的网络切片配置方法,以降低由于业务请求动态变化引起的vnf迁移频率,从而在一定程度上避免了由于网络功能虚拟化调度产生的端到端时延增加的问题。
4.为了达到上述目的,本发明的方案为:
5.一种基于流量感知的网络切片配置方法,具体按照以下步骤进行:
6.s1:基于压缩感知的端到端网络流量重构方法对时间为t时刻的网络流量进行重构,得到重构网络流量a;
7.s2:获取历史网络数据中时间长度为t0+1时刻的网络流量b,将其代入带未知网络参数的lstm网络框架,进行lstm网络训练,得到lstm网络参数,并输出lstm预测网络;
8.s3:将步骤s1得到的重构网络流量a,代入步骤s2得到的lstm预测网络,实现对所述重构网络流量a进行流量负载预测,进而得到每个网元预测负载值;
9.s4:结合nfv技术实现网络切片资源智能分配:比较当前系统中每个服务器的负载阈值和所有网元预测负载值,对所有网元预测负载值进行资源分配。
10.通过上述设计,利用基于压缩感知的端到端网络流量重构方法对未知的网络流量
进行重构,避免直接测量网络流量而造成的网络资源大量耗费。适用性广,相对于直接测量网络流量昂贵价格,本发明采用的预估方法成本低,利于大力推广。结合lstm和注意机制实现流量预测,最后采用nfv技术实现网络切片资源智能分配。本发明通过当前时刻的网络流量,来预测下一时间段的网络流量,并结合预测的负载值和系统中服务器的负载阈值,进行合理分配和规划,合理利用、分配系统资源,加快系统网络运行速度和处理效率。
11.进一步地,步骤s1中,基于压缩感知的端到端网络流量重构方法对网络流量a进行重构的具体内容为:
12.s11:生成一个全零项矩阵g={g
ij
}
l
×n;并构造随机0-1矩阵r={r
ij
}
l
×n;从而得到随机测量矩阵φ,求出获取的网络流量a的od流信号x(t);进而得到测量矢量z(t);
13.其中,g
ij
=1,ifp(i=k)》α;r
ij
的取值为0或者1;
14.l<<n,l=klog(n/k),k表示网络流量信号稀疏度;n为网络流量a中输出节点od流的流数;k<<n;
15.k=1,2,

l;i=1,2,

l,j=1,2,

n;α为概率阈值,0≤α≤1;
16.所述随机测量矩阵φ计算公式为:
17.φ={φ
ij
}
l
×n=r
·
*g={r
ij
·
*g
ij
}
l
×n;
18.所述网络流量a的od流信号x(t)为:
[0019][0020]
xi(t)表示时间段t内的第t个时刻第i个od流的流量;
[0021]
所述测量矢量z(t)的计算公式为:z(t)=φx(t);
[0022]
s12:利用k-svd,构造时间段t中第t时刻端到端网络流量的稀疏变换矩阵ψ;
[0023]
稀疏变换矩阵ψ的求解步骤为:
[0024]
所述网络流量a的od流x(t)的稀疏表示为:
[0025]
x(t)=ψs(t);即z(t)=φx(t)=φψs(t);
[0026]
s(t)为端到端网络流量的od流x(t)在稀疏变换矩阵ψ变换域中的稀疏信号;
[0027]
设d∈rn×n、x(t)∈rn、s(t)∈r
n;

[0028]
d表示网络流量字典;
[0029]
则x=(x(1),x(2),

,x(z))表示z个网络流量信号集合;
[0030]
s=(s(1),s(2),

,s(z))表示流量x的稀疏表示向量集合;
[0031]
则未知数d和s的解通过多重约束优化问题表示为:
[0032][0033]
通过最小二乘法als变换,未知数d和s的解通过多重约束优化问题进一步改进为:
[0034][0035]
d=(d1,d2,

,dn);k=1,2,

,n;
[0036]
s=(s1,s2,

,sn)
t
;k=1,2,

,n;
[0037]ek
是由于移除所有n个样本的原子dk的成分而引起的误差;
[0038]
通过奇异值分解法svd更新dk和sk,未知数d和s的解通过多重约束优化问题再进一步改进,更新得到新的字典网络流量字典的新稀疏信号通过新的字典的稀疏分解得到;再结合迭代得到最终的字典最终的字典为网络流量的稀疏表示稀疏变换矩阵ψ,即
[0039]
再进一步多重约束优化问题表示为:
[0040][0041]
ωk是一个矩阵,其大小为z
×
|wk|,且(wk(i),i)上的项等于1,否则为0;
[0042]
定义s
kr
=skωk、x
kr
=xωk和e
kr
=ekωk[0043]skr
是从sk中删除零输入的收缩结果;
[0044]
x
kr
是从xk中删除零输入的收缩结果;
[0045]ekr
是从ek中删除零输入的收缩结果;
[0046]
x
kr
是目前在dk中使用的原子样本集;
[0047]ekr
是由于去除样品中的原子dk而引起的误差;
[0048]skr
的长度是|wk|;
[0049]
x
kr
和e
kr
矩阵的大小为x
×
|wk|;
[0050]
s13:计算t时刻的重构稀疏信号
[0051][0052]
s14:结合步骤s13得到的重构稀疏信号得到初始重构网络流量
[0053][0054]
s15:对初始重构网络流量进行优化,得到时刻t的od流信号
[0055][0056]
s16:判断时间段t内的所有时刻是否重构完成,若全部完成,则输出时间段t的重构网络流量a;否则令t=t+1,返回步骤s13。
[0057]
再进一步地,步骤s2的具体步骤为:
[0058]
假设共有t0+1个时刻的网络流量数据,用数据长度为t0个时刻的网络流量数据来预测t0+1时刻的网络流量数据,t0=t,t是压缩感知的重构时间数;
[0059]
s21:把第i0时刻到第t0+i
0-1时刻的网络流量数据放进lstm网络框架,得到lstm网络每个细胞的输出集合其中,i0取值为1到t
0-t0+1;
[0060]
s22:将lstm网络每个细胞的输出集合h放入注意机制,得到合理注意系数α;
[0061]
所述注意机制计算公式为:
[0062]
m=tanh(hwu);
[0063]
α=softmax(m);
[0064]
其中,d是产生的lstm层的长度;w和u为学习参数;和和a=t0;tanh表示是激活函数;softmax为归一化函数;
[0065]
s23:计算注意层的输出r,计算公式为:
[0066]
r=(h
t
α)
t

[0067]
其中,
[0068]
s24:将注意层的输出r放进lstm网络框架的全连接层,分别得到预测的第t2时刻网络流量
[0069][0070]
其中,t2的取值为t0+1到t0+1;
[0071]
其中,w
fc
为权重矩阵;b
fc
为偏置;
[0072]
s25:使用sse和方差训练lstm网络参数j:
[0073]
为网络流量真实值。
[0074]
本方案的有益效果在于:
[0075]
通过本设计,基于压缩感知的端到端网络流量重构方法,实现对未知网络流量实现预估,并用于对后续网络系统进行规划。避免直接测量网络流量而造成的网络资源大量耗费。适用性广,相对于直接测量网络流量昂贵价格,本发明采用的预估方法成本低,利于大力推广。
[0076]
预估流量时,有效利用了压缩感知在信号重构方面有很多优势。根据压缩感知框
架,在样本值前提下,实现高准确度的重构原始信号。并且在预测网络流量时,利用注意机制从所有输入中选择对当前任务相对重要的信息,注意力机制的一个优点是,它们可以确定输入的哪一部分需要集中,然后将更大的权重分配给重要的部分。因此,预测更精准。
附图说明
[0077]
图1为本发明网络切片配置流程图;
[0078]
图2为本发明网络流量重构流程图;
[0079]
图3为lstm预测网络计算流程图;
[0080]
图4为通过部分测量od流量获得的测量向量的构造框架示意图;
[0081]
图5为遗忘门数据输入输出示意图;
[0082]
图6为输入门数据输入输出示意图;
[0083]
图7为输出门数据输入输出示意图;
[0084]
图8为基于nfv技术实现端到端的资源分配过程图。
具体实施方式
[0085]
下面通过具体实施方式进一步详细说明:
[0086]
一种基于流量感知的网络切片配置方法,结合图1可以看出,具体按照以下步骤进行:
[0087]
s1:基于压缩感知的端到端网络流量重构方法对时间为t时刻的网络流量进行重构,得到重构网络流量a;
[0088]
参见图2,步骤s1中,基于压缩感知的端到端网络流量重构方法对网络流量a进行重构的具体内容为:
[0089]
s11:生成一个全零项矩阵g={g
ij
}
l
×n;并构造随机0-1矩阵r={r
ij
}
l
×n;从而得到随机测量矩阵φ,求出获取的网络流量a的od流信号x(t);进而得到测量矢量z(t);
[0090]
其中,g
ij
=1,ifp(i=k)》α;r
ij
的取值为0或者1;
[0091]
l<<n,l=klog(n/k),k表示网络流量信号稀疏度;n为网络流量a中输出节点od流的流数;k<<n;
[0092]
k=1,2,

l;i=1,2,

l;j=1,2,

n;α为概率阈值,0≤α≤1;
[0093]
所述随机测量矩阵φ计算公式为:
[0094]
φ={φ
ij
}
l
×n=r
·
*g={r
ij
·
*g
ij
}
l
×n;
[0095]
所述网络流量a的od流信号x(t)为:
[0096][0097]
xi(t)表示时间段t内的第t个时刻第i个od流的流量;
[0098]ci
(t)表示t时刻第i个od流所经过路径的容量;
[0099]
a(t)表示t时刻的路由信息矩阵;
[0100]
y(t)=(y1(t),y2(t),

,y
m1
(t))表示网络中所有的链接的流量;y
m1
是第m1条链接的流量;
[0101]
m1是链接的总数;
[0102]
我们使用压缩感知理论和框架来解决等式中所示的端到端网络流量重构问题。根据压缩感知理论,我们将网络流量x(t)投影到一组度量基上φ={φ1,φ2,

φj…
,φn}则所述测量矢量z(t)的计算公式为:z(t)=φx(t);
[0103]
z(t)=(z1(t),z2(t),

,z
l
(t))表示压缩感知的测量数据;l<<n;
[0104]
随机测量矩阵φ的大小为l
×
n;
[0105]
φj表示第j个测量依据;其中j=1,2,

,n;
[0106]
s12:利用k-svd,构造时间段t中第t时刻端到端网络流量的稀疏变换矩阵ψ;
[0107]
稀疏变换矩阵ψ的求解步骤为:
[0108]
所述网络流量a的od流x(t)的稀疏表示为:
[0109]
x(t)=ψs(t);即z(t)=φx(t)=φψs(t);
[0110]
s(t)为端到端网络流量的od流x(t)在稀疏变换矩阵ψ变换域中的稀疏信号;
[0111]
设d∈rn×n、x(t)∈rn、s(t)∈r
n;

[0112]
d表示网络流量字典;
[0113]
则x=(x(1),x(2),

,x(z))表示z个网络流量信号集合;
[0114]
s=(s(1),s(2),

,s(z))表示流量x的稀疏表示向量集合;
[0115]
则未知数d和s的解通过多重约束优化问题表示为:
[0116][0117]
通过最小二乘法als变换,未知数d和s的解通过多重约束优化问题进一步改进为:
[0118][0119]
d=(d1,d2,

,dn);k=1,2,

,n;
[0120]
s=(s1,s2,

,sn)
t
;k=1,2,

,n;
[0121]ek
是由于移除所有n个样本的原子dk的成分而引起的误差;
[0122]
通过奇异值分解法svd更新dk和sk,未知数d和s的解通过多重约束优化问题再进一步改进,更新得到新的字典网络流量字典的新稀疏信号通过新的字典的稀疏分解得到;再结合迭代得到最终的字典最终的字典为网络流量的稀疏表示稀疏变换矩阵
ψ,即
[0123]
再进一步多重约束优化问题表示为:
[0124][0125]
ωk是一个矩阵,其大小为z
×
|wk|,且(wk(i),i)上的项等于1,否则为0;
[0126]
定义s
kr
=skωk、x
kr
=xωk和e
kr
=ekωk[0127]skr
是从sk中删除零输入的收缩结果;
[0128]
x
kr
是从xk中删除零输入的收缩结果;
[0129]ekr
是从ek中删除零输入的收缩结果;
[0130]
x
kr
是目前在dk中使用的原子样本集;
[0131]ekr
是由于去除样品中的原子dk而引起的误差;
[0132]skr
的长度是|wk|;
[0133]
x
kr
和e
kr
矩阵的大小为x
×
|wk|;
[0134]
s13:计算t时刻的重构稀疏信号
[0135][0136]
s14:结合步骤s13得到的重构稀疏信号得到初始重构网络流量得到初始重构网络流量
[0137]
s15:对初始重构网络流量进行优化,得到时刻t的od流信号
[0138][0139]
s16:判断时间段t内的所有时刻是否重构完成,若全部完成,则输出时间段t的重构网络流量a;否则令t=t+1,返回步骤s13。
[0140]
s2:获取历史网络数据中时间长度为t0+1时刻的网络流量b,将其代入带未知网络参数的lstm网络框架,进行lstm网络训练,得到lstm网络参数,并输出lstm预测网络;
[0141]
参见图3,步骤s2的具体步骤为:
[0142]
假设共有t0+1个时刻的历史网络流量数据,用数据长度为t0个时刻的网络流量数据来预测t0+1时刻的网络流量数据;t0=t,t是压缩感知的重构时间数;;
[0143]
s21:把第i0时刻到第t0+i
0-1时刻的网络流量数据放进lstm网络框
架,得到lstm网络每个细胞的输出集合其中,i0取值为1到t
0-t0+1;
[0144]
s22:将lstm网络每个细胞的输出集合h放入注意机制,得到合理注意系数α;
[0145]
所述注意机制计算公式为:
[0146]
m=tanh(hwu)
[0147]
α=softmax(m);
[0148]
其中,d是产生的lstm层的长度;w和u为学习参数;和和a=t0;tanh表示是激活函数;softmax为归一化函数;
[0149]
s23:计算注意层的输出r,计算公式为:
[0150]
r=(h
t
α)
t

[0151]
其中,
[0152]
s24:将注意层的输出r放进lstm网络框架的全连接层,分别得到预测的第t2时刻网络流量
[0153][0154]
其中,t2的取值为t0+1到t0+1;
[0155]
其中,w
fc
为权重矩阵;b
fc
为偏置;
[0156]
s25:使用sse和方差训练lstm网络参数j:
[0157]
为网络流量真实值。
[0158]
s3:将步骤s1得到的重构网络流量a,代入步骤s2得到的lstm预测网络,实现对所述重构网络流量a进行流量负载预测,进而得到每个网元预测负载值;
[0159]
s4:结合nfv技术实现网络切片资源智能分配:比较当前系统中每个服务器的负载阈值和所有网元预测负载值,对所有网元预测负载值进行资源分配。具体参见图8.
[0160]
为了更为详尽的说明上述网络流量处理重构、预测的内容的准确性,通过以下推到过程来进行说明:
[0161]
一、基于压缩感知的端到端网络流量重构方法对网络流量进行重构
[0162]
端到端网络流量矩阵反映了网络用户的固有行为和网络设备用于数据传输和信息交换的特性。对于n个节点的骨干网,od流数为n=n2。对于骨干网,可以将端到端的网络流量建模为:
[0163][0164]
式中i=1,2,

,n,xi(t)表示t时刻第i个od流的流量,ci(t)表示t时刻第i个od流所经过路径的容量,a(t)表示t时刻的路由信息矩阵。y(t)=(y1(t),y2(t),

,ym(t))表示网络中所有的链接的流量,m是链接的总数,ym是第m条链接的流量。根据(2)-(4)可以在式
(1)中找到网络流量xi(t)。但是,实际网络中的链路数量远远小于od流量的数量,即m<<n。换句话说,式(2)中不是方阵,导致了一个高度不适置的逆问题。因此,很难根据方程(2)-(4)得到端到端网络流量的精确解。
[0165]
则本实施例中,使用压缩感知理论和框架来解决等式中所示的端到端网络流量重构问题。
[0166]
根据压缩感知理论,将网络流量x(t)投影到一组度量基上φ={φ1,φ2,


m0
}。则可得到测量数据:
[0167]
z(t)=φx(t)
ꢀꢀ
(5)
[0168]
其中z(t)=(z1(t),z2(t),

,z
l
(t))表示压缩感知的测量数据,l<<n。φ为随机测量矩阵,大小为l
×
n。φi表示第i个测量依据,其中i=1,2,

,m0,φ主要用于将网络流量x(t)投影到测量数据矩阵z(t)中。
[0169]
根据式(5),如果能够准确地得到低维测量数据z(t),那么就可以利用压缩感知理论重构端到端网络流量x(t)。然而,端到端网络流量在实践中并不稀疏,现有的流量测量文献表明,端到端网络流量主要由少数几个大外径流量(象流)组成,这些大外径流量占整个外径流量的80%。如果只考虑象流,根据信号稀疏理论,可以用变换矩阵ψ将端到端网络流量x(t)稀疏表示为:
[0170][0171]
ψ=(ψ1,ψ2,

,ψn)表示网络流量信号的稀疏变换矩阵;
[0172]
s(t)为端到端网络流量x(t)在ψ变换域中的稀疏投影;有k个非零行(其中k<<n)。
[0173]
根据方程式(5)和(6),可得方程式(7):
[0174]
z(t)=φx(t)=φψs(t)
ꢀꢀ
(7)
[0175]
如果得到了测量信号z(t),则可以根据压缩感知理论准确地重构稀疏信号s(t)。因此,可以根据式(6)准确地重构端到端网络流量x(t),这促使发明人考虑根据式(1)-(4)使用压缩感知来解决端到端网络流量重构问题。
[0176]
随机测量矩阵φ构造内容为:
[0177]
随机测量矩阵φ拥有以下重构属性:
[0178]
1.为了使用随机测量矩阵φ提取要测量的od流,随机测量矩阵φ应该是0或1并服从随机分布。随机测量矩阵φ等于1表示需要测量的od流,随机测量矩阵φ等于0表示不需要测量的od流。
[0179]
2.随机测量矩阵φ表示测量信号z(t)与端到端网络流量x(t)的线性组合关系。随机测量矩阵φ中的行向量可以有多个非零条目,测量信号z(t)的条目可以表示为多个od流的线性组合。
[0180]
3.随机测量矩阵φ表示某od流只与测量信号z(t)中的某一项有关系。φ中的每个列(行)向量只有一个非零条目,并且一个od流只被收集到测量信号z(t)中的一个条目中。
[0181]
4.随机测量矩阵φ表示测量信号z(t)与网络流量x(t)的聚合关系。od流聚集成测量信号z(t)。
[0182]
5.随机测量矩阵φ表示高维网络流量x(t)到低维测量信号z(t)的转换关系。
[0183]
通过上述属性,提出以下算法1:构造端到端网络流量的随机测量矩阵φ:
[0184]
(1)根据属性1,我们得到一个完全零矩阵g={g
ij
}
l
×n,其中l<<n,l=k log(n/k),k表示网络流量信号稀疏度。
[0185]
(2)根据属性1和2,从完全零矩阵g={g
ij
}
l
×n的每个列向量中随机选取d个位置,设为:
[0186]gij
=1,if p(i=k)>α
ꢀꢀꢀ
(8)
[0187]
其中k为变量,k=1,2,

,l,i也是一个变量,i=1,2,

,l,j=1,2,

n;α为概率阈值,0≤α≤1。对于完全零矩阵g的每个列向量,根据式(8)选择并更新d个随机位置。实验表明,d的值越小,最终构建的测量矩阵稀疏度越高,端到端网络流量重构越精确。
[0188]
(3)根据属性3,设随机选取位置个数d=1
[0189]
(4)构造随机的0-1矩阵r={r
ij
}
l
×n,得到随机测量矩阵如下:
[0190]
φ={φ
ij
}
l
×n=r
·
*g={r
ij
·
*g
ij
}
l
×mꢀꢀꢀ
(9)
[0191]
若r为随机生成的0-1矩阵,则由式(9)得到的随机测量矩阵φ的秩不大于完全零矩阵g的秩,因此,随机测量矩阵φ与完全零矩阵g相比,其列向量的线性相关性发生了变化;如果r是随机生成的0-1矩阵,则由式(9)得到的随机测量矩阵φ的稀疏度得到增强。由式(9)可知,我们可以通过随机生成的0-1矩阵r来改善矩阵g的稀疏性。随后,基于压缩感知的端到端网络流量重构精度将得到提高。
[0192]
(5)将被测量的od流的一个子集由随机测量矩阵φ确定;eq.(11)表示,对随机测量矩阵φ的列向量进行“和”计算,可以正确地求出待测外径流量所对应的非零位置。
[0193]mod
={odj|φ
ij
∩1=1}
ꢀꢀ
(11)
[0194]
(6)根据属性4和5,我们将获得以下测量向量:
[0195][0196]
结合图4,对于端到端交通流向量深灰色方框表示由测量矩阵确定的部分测量od流量,白色框表示需要重构的od流量。
[0197]
稀疏变换矩阵ψ的构造内容为:
[0198]
从压缩感知理论知道,由于流量矩阵本身不是稀疏的,仅通过构造随机测量矩阵无法正确、准确地重构od流。因此,需要找到一个合适的稀疏变换矩阵ψ,使网络流量x(t)可以用稀疏变换矩阵ψ稀疏表示。
[0199]
用k-svd算法,通过构造过完备字典来构造我们的稀疏矩阵。k-svd算法具有较强的稀疏表示能力和较低的计算复杂度。
[0200]
根据k-svd,设d∈rn×n,x(t)∈rn和s(t)∈rn分别表示网络流量字典、网络流量信号和网络流量的稀疏表示。因此,x=(x(1),x(2),

,x(z))表示z个网络流量信号集合。s=(s(1),s(2),

,s(z))表示x的稀疏表示向量集,为了构造端到端网络流量的稀疏表示矩阵,根据k-svd,d和s的解可以表示为以下多重约束优化问题:
[0201][0202]
n为端到端网络流量稀疏表示中非零项个数的上限。方程(13)包含两个未知变量d
和s,用交替最小二乘(als)来获得上述方程所示优化过程(13)-(16)的最优解。
[0203]
首先,给定网络流量字典d,我们使用als方法确定网络流量的稀疏表示s。
[0204]
然后,进一步使用als方法,可以根据获得的网络流量稀疏表示s更好地确定网络流量字典d。一次更新网络流量字典d的一列,如果想更新网络流量字典d的第k列(其中k=1,2,

,n,d=(d1,d2,

,dn)),让网络流量稀疏矩阵s的第k列对应于sk(其中k=1,2,

,n,s=(s1,s2,

,sn)
t
),那么上述多约束优化问题可以表示为:
[0205][0206]
等式(17)将乘法ds划分为k个秩1矩阵的和。给定k-1项,第k列是要处理的向量。矩阵ek表示误差,该误差是由于移除所有n个样本的原子dk的成分而引起的。等式(18)—(20)表示约束条件。然后,使用奇异值分解(svd)来更新dk和sk。根据奇异值分解(svd),可以找到最接近ek的秩1矩阵。然后可以有效地减小等式(17)的误差。然而,通过这种方式获得的sk中的大多数条目将是非零向量。因此,不能强制更新dk以满足稀疏性约束。也就是说,由于零值的影响,当更新非零位置的向量时,会发生sk变化,并出现发散现象。为了解决这个问题,则删除sk中的所有0并保留非零值。当使用svd更新dk和sk时,则可以避免发散现象。
[0207]
定义wk={i|1≤i≤n、s
ki
≠0}作为dk使用的所有信号集的{x(1),x(2),

,x(z)}索引集,即s
ki
≠0时的点索引(其中s
ki
表示矩阵s的第k行和第i列的项)。定义ωk是一个矩阵,其大小为z
×
|wk|,且(wk(i),i)上的项等于1,否则为0。定义s
kr
=skωk、x
kr
=xωk和e
kr
=ekωk分别是从sk、x和ek中删除零输入的收缩结果。x
kr
是目前在dk中使用的原子样本集。e
kr
是由于去除样品中的原子dk而引起的误差,并且不考虑去除的影响。s
kr
的长度是|wk|。x
kr
和e
kr
矩阵的大小为x
×
|wk|。等式(17)—(20)可以重写为:
[0208][0209]
更新后,可以获得新的网络流量字典的新稀疏表示可以通过字典的稀疏分解得到。通过迭代的方式,可以得到最终的字典可以视为网络流量的稀疏表示矩阵ψ,即
[0210]
端到端网络流量重构内容:
[0211]
基于以上讨论,成功构造了测量矩阵φ和稀疏矩阵ψ。因此,我们可以根据压缩感知理论对t时刻的稀疏信号s(t)进行重构。重构过程可以表示为以下优化问题:
[0212][0213]
那么根据式(5)可以得到t时刻端到端网络流量的重构结果,即:
[0214][0215]
由于端到端网络流量复杂的固有特性,由式(26)得到的结果可能不准确,存在一定的误差。为了进一步减小重构误差,根据方程(1)-(4)所表示的端到端网络流量模型,将式(26)所表示的重构方法表示为一个有约束的优化过程。据此,可得:
[0216][0217]
二、利用lstm网络和注意机制实现流量预测。
[0218]
lstm网络通过引入一个存储单元和三个附加门(输入门、遗忘门和输出门)来处理长序列。具体地说,输入门决定进入存储器单元的信息。输出门在每个时间步中产生输出。遗忘门更新记忆单元的状态方程式。
[0219]
lstm单元的计算过程:
[0220]
遗忘门:在lstm中的第一步是决定会从细胞状态中丢弃什么信息。这个决定通过一个称为忘记门层完成。该门会读取h
t-1
和x
t
,输出一个在0到1之间的数值给每个在细胞状态c
t-1
中的数字,1表示“完全保留”,0表示“完全舍弃”。
[0221]
结合图5可以看出,为遗忘门数据输入输出过程,存在以下关系式:
[0222]ft
=σ(wf·
[h
t-1
,x
t
]+bf)
[0223]
其中h
t-1
表示的是上一个细胞的输出,x
t
表示的是当前细胞的输入。σ表示sigmoid函数。
[0224]
输入门:下一步是决定让多少新的信息加入到细胞状态中来。实现这个需要包括两个步骤:首先,一个叫做“input gate layer”的sigmoid层决定哪些信息需要更新;一个tanh层生成一个向量也就是备选的用来更新的内容。在下一步,我们把这两部分联合起来,对细胞的状态进行一个更新。
[0225]
参见图6,为输入门数据输入输出过程,存在以下关系式:
[0226]it
=σ(wi·
[h
t-1
,x
t
]+bi);
[0227][0228]
现在是更新旧细胞状态的时间了,c
t-1
更新为c
t
。前面的步骤已经决定了将会做什么,我们现在就是实际去完成。我们把旧状态与f
t
相乘,丢弃掉我们确定需要丢弃的信息。接着加上这就是新的候选值,根据我们决定更新每个状态的程度进行变化。
[0229]
输出门:输出门由两部分组成,第一部分同样是以上一时刻的隐藏状态和本时刻的输入变量为输入,通过sigmoid函数来控制输出范围,第二部分将隐藏状态通过tanh激活函数控制输出范围,再与第一部分输出结果相乘来更新隐藏状态。参见图7为输出门输入输
出关系式:
[0230]ot
=σ(wo[h
t-1
,x
t
]+bo)
[0231]ht
=o
t
*tanh(c
t
)
[0232]
注意机制:
[0233]
在这里,使用两个可学习的参数w和u来提高注意层的表示能力。合理注意系数a指示h中每个元素的重要性。在这种情况下,注意层可以为输入h中的不同元素分配更合理的权重。
[0234]
m=tanh(hwu);
[0235]
α=softmax(m);
[0236]
r=(h
t
α)
t
.
[0237]
其中d是产生的lstm层的长度,和是学习参数,a被设置为等于t0,t0=t,t是压缩感知那里的重构时间数。函数tanh是激活函数,如下式所示。这里,使用两个学习参数来更好地映射不同输出向量之间的相关性,从而产生注意参数里,使用两个学习参数来更好地映射不同输出向量之间的相关性,从而产生注意参数方程(6)是softmax函数,用于归一化m以计算a.是注意层的输出。
[0238][0239][0240]
三、采用nfv技术实现网络切片资源智能分配
[0241]
服务器负载与很多因素有关,考虑到5g核心网的服务器负载主要与nfv网元有关,因此,本文将不同类型nfv网元流量感知作为输入,将不同nfv网元流量预测作为服务器负载,实现基于流量的负载预测,进而结合系统设置的阈值,将变化较大的部分nfv网元迁至其他服务器。基于网络功能虚拟化的技术,实现软硬件的完全解耦,从而实现基于nfv网元智能迁出和迁入。参见图8,为基于nfv技术实现网络切片资源智能分配过程。
[0242]
基于nfv技术能够将网络设备资源整合在统一的资源池中,根据抽象出来的网络服务和功能需求,对资源池进行动态调度。在图8中,显示当nfv网元4和网元5共用一个服务器并出现负载过大时,系统根据nfv网元4和网元5的流量感知水平,将nfv部分网元迁出原服务器,迁入到满足流量需求的服务器中,实现网络资源的智能分配。
[0243]
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和本发明的实用性。说明书中的具体实施方式等记载可以用于解释权利要求的内容。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1