基于BP神经网络的拉曼放大器增益值计算方法及系统

文档序号:25782273发布日期:2021-07-09 09:55阅读:296来源:国知局
基于BP神经网络的拉曼放大器增益值计算方法及系统
基于bp神经网络的拉曼放大器增益值计算方法及系统
技术领域
1.本发明涉及拉曼放大器增益值预测技术领域,特别是涉及一种基于bp神经网络的拉曼放大器增益值计算方法及系统。


背景技术:

2.拉曼放大技术被认为是未来多波段光通信系统中的一种有效的光信号放大解决方案,适用于5g以及下一代移动通信系统背景下的光放大。在dwdm(dense wavelength divisionmultiplexing,密集型光波复用)系统中,拉曼放大器由于具有输出增益高、噪声指数低、响应速度快以及非线性失真小等优点,使得它在全光通信系统中发挥着重要的作用。在拉曼放大器设计中,泵光参数的选择是关键问题。传统的拉曼放大器设计需要求解一组描述泵浦光与信号光非线性效应的耦合拉曼波方程,由于其复杂性,无法直接计算该方程的解析解。数值方法如龙格

库塔方法、打靶法和平均功率法常常应用于该问题的逼近。随着近年来进化算法和粒子群优化算法的研究,解决了这一问题。但是,算法耗时,效率低的问题仍然存在。


技术实现要素:

3.本发明的目的是提供一种基于bp神经网络的拉曼放大器增益值计算方法及系统,以快速、准确地计算拉曼放大器增益值。
4.为实现上述目的,本发明提供了如下方案:
5.一种基于bp神经网络的拉曼放大器增益值计算方法,包括:
6.获取数据集;所述数据集包括历史泵浦光的波长数据、历史泵浦光的功率数据以及历史拉曼放大器增益值;
7.将所述数据集划分为训练数据以及检验数据;
8.根据所述训练数据确定bp神经网络模型的拓扑结构,得到初始bp神经网络模型;
9.利用所述训练数据对所述初始bp神经网络模型进行训练,得到训练好的bp神经网络模型;
10.根据所述训练好的bp神经网络模型计算当前泵浦光的波长数据和当前泵浦光的功率数据下的拉曼放大器增益值。
11.可选地,根据所述训练数据确定bp神经网络模型的拓扑结构之前,还包括:
12.对所述训练数据进行缺失补全、异常值处理、归一化处理以及反归一化处理。
13.可选地,根据所述训练数据确定bp神经网络的拓扑结构,得到初始bp神经网络模型,具体包括:
14.根据所述训练数据中的历史泵浦光的波长数据以及所述训练数据中的历史泵浦光的功率数据确定bp神经网络模型的输入层;
15.根据所述训练数据中的历史拉曼放大器增益值的增益值误差确定bp神经网络模型的隐含层;
16.根据所述训练数据中的历史拉曼放大器增益值确定bp神经网络模型的输出层,得到初始bp神经网络模型。
17.可选地,所述输入层、所述隐含层以及所述输出层采用正切s型传递函数tansig依次连接;
18.所述输入层的层数为6层,所述隐含层的层数为5层,所述输出层的层数为51层;每层所述输入层、每层所述隐含层以及每层所述输出层均包含42神经元。
19.可选地,得到初始bp神经网络模型之后,还包括:
20.利用mea算法对所述初始bp神经网络模型的初始权值和阈值进行优化。
21.可选地,得到训练好的bp神经网络模型之后,还包括:
22.利用所述检验数据对所述训练好的bp神经网络模型进行检验。
23.一种基于bp神经网络的拉曼放大器增益值计算系统,包括:
24.获取模块,用于获取数据集;所述数据集包括历史泵浦光的波长数据、历史泵浦光的功率数据以及历史拉曼放大器增益值;
25.划分模块,用于将所述数据集划分为训练数据以及检验数据;
26.确定模块,用于根据所述训练数据确定bp神经网络模型的拓扑结构,得到初始bp神经网络模型;
27.训练模块,用于利用所述训练数据对所述初始bp神经网络模型进行训练,得到训练好的bp神经网络模型;
28.计算模块,用于根据所述训练好的bp神经网络模型计算当前泵浦光的波长数据和当前泵浦光的功率数据下的拉曼放大器增益值。
29.可选地,所述确定模块具体包括:
30.第一确定单元,用于根据所述训练数据中的历史泵浦光的波长数据以及所述训练数据中的历史泵浦光的功率数据确定bp神经网络模型的输入层;
31.第二确定单元,用于根据所述训练数据中的历史拉曼放大器增益值的增益值误差确定bp神经网络模型的隐含层;
32.第三确定单元,用于根据所述训练数据中的历史拉曼放大器增益值确定bp神经网络模型的输出层,得到初始bp神经网络模型。
33.根据本发明提供的具体实施例,本发明公开了以下技术效果:
34.本发明公开了一种基于bp神经网络的拉曼放大器增益值计算方法及系统,方法包括:获取数据集;所述数据集包括历史泵浦光的波长数据、历史泵浦光的功率数据以及历史拉曼放大器增益值;将所述数据集划分为训练数据以及检验数据;根据所述训练数据确定bp神经网络模型的拓扑结构,得到初始bp神经网络模型;利用所述训练数据对所述初始bp神经网络模型进行训练,得到训练好的bp神经网络模型;根据所述训练好的bp神经网络模型计算当前泵浦光的波长数据和当前泵浦光的功率数据下的拉曼放大器增益值。本发明根据训练数据确定bp神经网络模型的拓扑结构,得到了最佳的学习模型,使得模型更准确、快速地映射泵浦光参数与拉曼放大器增益值之间的关系,进而快速、准确地计算拉曼放大器增益值。
附图说明
35.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
36.图1为基于bp神经网络的拉曼放大器增益值计算方法流程图;
37.图2为bp神经网络模型结构图;
38.图3为bp神经网络模型的计算增益误差值示意图。
具体实施方式
39.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
40.本发明的目的是提供一种基于bp神经网络的拉曼放大器增益值计算方法及系统,以快速、准确地计算拉曼放大器增益值。
41.为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
42.如图1所示,基于bp神经网络的拉曼放大器增益值计算方法,包括:
43.步骤101:获取数据集;数据集包括历史泵浦光的波长数据、历史泵浦光的功率数据以及历史拉曼放大器增益值。
44.根据大量实验得出泵浦光的波长和泵浦光的功率是影响拉曼放大器增益值的主要因素,因此,将以上两个影响因素作为bp神经网络的输入变量,将拉曼放大器增益值作为bp神经网络的输出变量。
45.步骤102:将数据集划分为训练数据以及检验数据。
46.bp神经元网络的输入变量的单位不同,数值差异较大,因此要对训练数据进行预处理,预处理包括缺失补全、异常值处理、归一化处理以及反归一化处理。
47.步骤103:根据训练数据确定bp神经网络模型的拓扑结构,得到初始bp神经网络模型。步骤103具体包括:
48.步骤1031:根据训练数据中的历史泵浦光的波长数据以及训练数据中的历史泵浦光的功率数据确定bp神经网络模型的输入层。
49.步骤1032:根据训练数据中的历史拉曼放大器增益值的增益值误差确定bp神经网络模型的隐含层。
50.步骤1033:根据训练数据中的历史拉曼放大器增益值确定bp神经网络模型的输出层,得到初始bp神经网络模型。
51.其中,输入层、隐含层以及输出层采用正切s型传递函数tansig依次连接。输入层的层数为6层,隐含层的层数为5层,输出层的层数为51层。每层输入层、每层隐含层以及每层输出层均包含42神经元。bp神经网络模型结构如图2所示,图2中,λ1、λ2以及λ3表示不同的泵浦光的波长,p1、p2以及p3表示不同的泵浦光的功率,r
m
表示行数,m∈[1,42],c
n
表示列数,
n∈[1,5],g(λ
q
)表示增益值,q∈[1,51]。
[0052]
步骤104:利用训练数据对初始bp神经网络模型进行训练,得到训练好的bp神经网络模型。
[0053]
对初始bp神经网络模型进行训练之前,还要利用mea算法对所述初始bp神经网络模型的初始权值和阈值进行优化。
[0054]
得到训练好的bp神经网络模型之后,还要利用检验数据对训练好的bp神经网络模型进行检验。
[0055]
步骤105:根据训练好的bp神经网络模型计算当前泵浦光的波长数据和当前泵浦光的功率数据下的拉曼放大器增益值。
[0056]
本实施例还提供了一个具体示例:
[0057]
根据影响拉曼放大器增益值的主要因素,确定各影响因素的取值范围。其中,泵浦光的波长范围为1410

1510nm,泵浦光的功率范围为0

500mw,在该取值范围内,随机产生3300组数据作为数据集,其中的3000组数据作为训练数据,另外300组数据作为检验数据。
[0058]
为了加快神经网络的收敛性,对训练数据进行缺失补全、异常值处理、归一化处理以及反归一化处理。归一化处理表达式为:x=(x
max

x
min
)/2+(x
max
+x
min
)/2,反归一化处理表达式为:x
i
=(x
max

x
min
)
·
y
i
+x
min
。其中x
max
、x
min
分别为训练数据的最大值和最小值,x
i
、y
i
分别为反归一化处理前后的值,x为归一化处理后的值。训练数据经过归一化处理映射到[0,1]区间,有效地消除了原变量因量纲不同和数值差异太大而带来的影响,模型得到的计算值最后通过反归一化处理还原得到真实的数值。
[0059]
根据训练数据中的历史拉曼放大器增益值的增益值误差确定bp神经网络模型的隐含层。输入层、隐含层以及输出层采用正切s型传递函数tansig依次连接,tansig函数为:y=2/[1+e

2x
]

1。训练算法采用trainscg算法。选取学习样本的均方误差的倒数作为各个个体与种群的得分函数,函数为:val=1/mse,其中,val为mea的得分,mse为均方误差。
[0060]
在训练初始bp神经网络模型之前,对初始bp神经网络模型的初始权值和阈值进行优化。优化过程如下:
[0061]
(1)利用初始种群产生函数initpop=initpop_generate(popsize,x,s,y,p,t),可以方便地产生初始种群。其中,popsize为种群规模大小,x为初始bp神经网络模型输入层神经元个数,s为初始bp神经网络模型隐含层神经元个数,y为初始bp神经网络模型输出层神经元个数,p为训练样本输入矩阵,t为训练样本输出矩阵,initpop为产生的初始种群。利用子种群产生函数subpop=subpop_generate(center,sg,x,s,y,p,t),可以方便地产生优胜子种群和临时子种群。其中,center为子种群的中心,sg为子种群规模大小,sg=popsize/(bestsize+tempsize),bestsize为优胜子种群个数,tempsize临时子种群个数,subpop为产生的子种群。
[0062]
(2)优胜子种群和临时子种群产生后,各个子种群要先执行趋同操作,利用种群成熟判别函数[flag,index]=ismature(pop),可以方便地判断各个子种群趋同操作是否完成。其中,pop为待判别的子种群,flag为种群成熟标志,若flag=0,则子种群不成熟,若flag=1,则子种群已成熟,index为子种群中得分最高的个体对应的索引号。
[0063]
(3)待各个优胜子群体和临时子群体趋同操作完成后,执行异化操作,当一个临时子群体得分高于某个成熟的优胜子群体,则该优胜子群体被临时子群体替代,原优胜子群
体中的个体被释放,若一个成熟的临时子群体的得分低于任意一个优胜子群体的得分,则该临时子群体被废弃,其中的个体被释放,被释放的个体在全局范围内重新搜索并形成新的临时群体。
[0064]
(4)当满足迭代停止条件时,mea结束优化过程,此时,根据编码规则,对寻找到的最优个体进行解析,从而得到优化后的初始bp神经网络模型的初始权值和阈值。
[0065]
bp神经网络模型训练完成后,输入剩余的300组检验数据,进行仿真预测,结果如图3所示,300组检验数据的最大计算误差不超过0.3db,验证了bp神经网络模型计算测拉曼放大器增益值的准确性。而现有的计算模型误差为0.5db。与现有技术相比,本发明操作简单、精度较高、适用性较好。
[0066]
本算法模型在matlab r2012a环境下实现,所有计算均在64位计算机上进行,计算机采用intel

corei7,处理器为3.4ghz,内存为8gb。在此基础上,还采集了6组实际的泵浦光参数,将这些参数输入到训练好的bp神经网络模型中进行计算,计算结果如表1所示,具体的输出增益值如表2所示。
[0067]
表1
[0068][0069]
表2
[0070]
[0071][0072]
本实施例还提供了一种基于bp神经网络的拉曼放大器增益值计算系统,包括:
[0073]
获取模块,用于获取数据集;数据集包括历史泵浦光的波长数据、历史泵浦光的功率数据以及历史拉曼放大器增益值。
[0074]
划分模块,用于将数据集划分为训练数据以及检验数据。
[0075]
确定模块,用于根据训练数据确定bp神经网络模型的拓扑结构,得到初始bp神经网络模型。
[0076]
训练模块,用于利用训练数据对所述初始bp神经网络模型进行训练,得到训练好的bp神经网络模型。
[0077]
计算模块,用于根据训练好的bp神经网络模型计算当前泵浦光的波长数据和当前泵浦光的功率数据下的拉曼放大器增益值。
[0078]
在本实施例中,确定模块具体包括:
[0079]
第一确定单元,用于根据训练数据中的历史泵浦光的波长数据以及所述训练数据中的历史泵浦光的功率数据确定bp神经网络模型的输入层。
[0080]
第二确定单元,用于根据训练数据中的历史拉曼放大器增益值的增益值误差确定bp神经网络模型的隐含层。
[0081]
第三确定单元,用于根据训练数据中的历史拉曼放大器增益值确定bp神经网络模型的输出层,得到初始bp神经网络模型。
[0082]
本发明根据训练数据确定bp神经网络模型的拓扑结构,得到了最佳的学习模型,
使得模型更准确、快速地映射泵浦光参数与拉曼放大器增益值之间的关系,进而快速、准确地计算拉曼放大器增益值。
[0083]
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
[0084]
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1