一种基于BP神经网络计算屏蔽材料积累因子的方法

文档序号:24874922发布日期:2021-04-30 12:49阅读:218来源:国知局
一种基于BP神经网络计算屏蔽材料积累因子的方法
本发明涉及用于确定论辐射屏蔽计算
技术领域
,是一种基于bp神经网络计算屏蔽材料积累因子的方法。
背景技术
:点核积分方法是简化计算三维空间中辐射剂量场分布的方法。点核积分将复杂三维空间中辐射剂量场分布计算简化为两个部分,第一部分为未与屏蔽物质相互作用的直穿项的计算,而第二部分为粒子与物质发生相互作用的积累因子的计算。对于积累因子的计算,在传统的计算方法中主要采用拟合的泰勒公式和g-p公式。对于拟合公式,表达式复杂且计算参数在实际应用中还需查表进行线性插值计算,给积累因子的计算带来一定误差。技术实现要素:本发明提出采用bp神经网络对ansi6.4.3标准数据库中的积累因子进行训练,得到神经网络模型用以计算和预测不同能量和不同平均自由程下的积累因子。该模型只需输入能量(e)和平均自由程(mfp)两个参数便可计算材料的积累因子,不仅减少了繁杂的参数输入和计算,而且大大提高了计算的精度,更加有利于程序化。本发明提供了一种基于bp神经网络计算屏蔽材料积累因子的方法,本发明提供了以下技术方案:一种基于bp神经网络计算屏蔽材料积累因子的方法,进行正向传播,所述正向传播过程为输入信号从输入层经隐含层神经元,传向输出层,在输出端产生输出信号,当输出信号满足给定的输出要求,计算结束;当输出信号不满足给定的输出要求,则转入信号反向传播。优选地,通过下式表示在神经网络中某一神经元的正向传播:其中,表示第j层第i个神经元的输入,当j为第一层,则输入参数为γ射线能量e和平均自由程mfp;表示第j层第i个神经元的输入与权重wi的乘积之和再加上偏移量bj;f(z)表示激活函数,表示第j层的输出,同时作为第j+1层的输入,当第j层为输出层,则为最终信号输出值,当网络输出值与实际值不相等时,存在损失值l,通过下式表示损失函数:其中,y′是神经网络输出的期望值,而y是实际值。优选地,神经网络模型建议采用relu激活函数,即σ(z)=max{z,0},其他激活函数也可实现本方法,还可采用sigmoid和tanh激活函数。优选地,采用的bp训练算法通过尝试最小化输出神经元的期望值和实际值之间的平方差之和来优化权重,当l<=e,其中,e为计算期望精度,或进行到预先设定的学习次数时,计算结束,否则进行反向传播计算。优选地,bp算法计算权重w和偏移量b,以使l(w,b)最小。优选地,调整权值的原则是使误差不断地减小,因此应沿着权值的负梯度方向进行调整,通过下式使权值的调整量与误差的梯度下降成正比:其中,α表示学习率,是一个给定的常数,0<α<1;表示损失函数l对第j层第i个输入权重的偏导;表示损失函数l对第j层偏移量b的偏导;根据求得的各层神经元连接权值和偏移量的变化增量来迭代更新用于下一轮网络学习与训练的神经元连接权值及偏移量,通过下式进行更新:bj=bj+δbj当求出各层新的权值和偏移量后在转向正向传播过程,进行迭代计算;以上即完成一次bp迭代循环,当计算的损失值l<=e,e为设置的期望精度,设置的越小,学习的精度就越高时,完成整个机器学习过程。本发明具有以下有益效果:本发明将数据按合理的比例将数据拆分为训练集和测试集,并将数据进行归一化处理。使用训练集对网络进行训练,并使用测试集进行验证。通过反复试验即可确定最佳的隐藏层和每层神经元的数量。本算法提出的神经网络模型中,建议隐藏层和输出层的激活函数都是relu函数,并建议设置损失值l<1e-4,以便于充分提高精度。此外,学习率对于bp神经网络的配置也是至关重要的,在本算法中,初始学习率建议设置为0.001,并在训练过程中逐渐降低学习率。附图说明图1为神经网络结构示意图;图2为基于bp神经网络计算屏蔽材料积累因子的方法流程图;图3为均方误差随训练次数的变化示意图;图4为数据预测与结果对比图。具体实施方式以下结合具体实施例,对本发明进行了详细说明。具体实施例一:根据图1至图4所示,本发明提供一种基于bp神经网络计算屏蔽材料积累因子的方法,包括以下步骤:本方法提出使用神经网络算法来实现快速准确地计算材料的积累因子,以ansi6.4.3标准数据库作为基础训练数据训练神经网络模型,输入参数分别为x1(γ射线能量e)、x2(平均自由程mfp),可计算的穿透深度达40mfp。计算过程包含两部分,分别为向前传播计算和向后传播计算。正向传播过程输入信号从输入层经隐含层神经元,传向输出层,在输出端产生输出信号,若输出信号满足给定的输出要求,计算结束;若输出信号不满足给定的输出要求,则转入信号反向传播。神经网络中某一神经元的正向传播计算如下:式中,表示第j层第i个神经元的输入,若j为第一层,则输入参数为γ射线能量e和平均自由程mfp;表示第j层第i个神经元的输入与权重wi的乘积之和再加上偏移量bj;f(z)表示激活函数,常用的激活函数有sigmoid、tanh、relu等,本算法提出的神经网络模型建议采用relu激活函数,即σ(z)=max{z,0}。表示第j层的输出,同时也作为第j+1层的输入。如果第j层为输出层,则为最终信号输出值。当网络输出值与实际值不相等时,存在损失值l,损失函数定义如下:式中,y′是神经网络输出的期望值,而y是实际值。本算法中采用的bp训练算法通过尝试最小化输出神经元的期望值和实际值之间的平方差之和来优化权重。当l<=e(e为计算期望精度)或进行到预先设定的学习次数时,计算结束,否则进行反向传播计算。bp算法的目的是计算权重w和偏移量b,以使l(w,b)最小。调整权值的原则是使误差不断地减小,因此应沿着权值的负梯度方向进行调整,也就是使权值的调整量与误差的梯度下降成正比,即:式中,α表示学习率,是一个给定的常数,通常取0<α<1;表示损失函数l对第j层第i个输入权重的偏导;表示损失函数l对第j层偏移量b的偏导。根据上述求得的各层神经元连接权值和偏移量的变化增量来迭代更新用于下一轮网络学习与训练的神经元连接权值及偏移量,更新公式为:bj=bj+δbj当求出各层新的权值和偏移量后在转向正向传播过程,进行迭代计算。以上描述即完成一次bp迭代循环,当计算的损失值l<=e(e为设置的期望精度,该值设置的越小,学习的精度就越高)时,完成整个机器学习过程。将数据按8:2的比例将数据拆分为训练集和测试集,并将数据进行归一化处理。使用训练集对网络进行训练,并使用测试集进行验证。通过反复试验即可确定最佳的隐藏层和每层神经元的数量。本算法提出的神经网络模型中,建议隐藏层和输出层的激活函数都是relu函数,并建议设置损失值l<1e-4,以便于充分提高精度。此外,学习率对于bp神经网络的配置也是至关重要的,在本算法中,初始学习率设置为0.001,并在训练过程中逐渐降低学习率。以计算铁的积累因子为例:利用本算法提出的神经网络模型,经过训练后,训练集数据与测试集数据均达到收敛,训练集与测试集计算的均方误差均小于0.5。选取γ射线能量为1mev,进行计算结果验证,验证结果如下表1和2所示。表1铁的积累因子(e=1mev)e=1mev原始数据计算数据相对误差mfp=0.51.531.5126-1.1373%mfp=1.02.142.1279-0.5654%mfp=2.03.503.4700-0.8571%mfp=3.05.045.0388-0.0238%mfp=4.06.796.7649-0.3697%mfp=5.08.748.7235-0.1888%mfp=6.010.9010.8850-0.1376%mfp=7.013.2013.1871-0.0977%mfp=8.015.7015.6891-0.0694%mfp=10.021.1021.0803-0.0934%mfp=15.037.1037.0874-0.0340%mfp=20.056.2056.1902-0.0174%mfp=25.077.9077.8861-0.0178%mfp=30.0102.00102.00740.0073%mfp=35.0128.00127.9324-0.0528%mfp=40.0156.00156.02670.0171%表2数据预测与结果对比(fe,e=1mev)mfpbp神经网络g-p公式taylor公式mcnp0.51.512651.528061.418741.5777312.127892.130001.855222.202601.52.771772.789542.310062.8644223.469953.501942.783883.477872.54.137204.264623.277324.3507135.038825.075883.791055.165543.55.832325.934474.325776.0347546.764916.839414.882196.573294.57.458907.789885.461047.9379058.723518.785146.063078.957665.59.612069.824536.6890810.02863610.8849610.907397.3398611.112216.3311.7317611.645607.7833511.835076.6612.4627112.402318.2382512.60586713.1870813.201128.7191213.414807.3313.9495313.994859.1979414.245957.6614.6363414.806559.6889415.08462815.6890515.6614410.2078415.971688.617.6083317.2155711.1566817.524859.319.3747719.1008412.3191019.433451021.0803521.0621013.5438821.467561124.2392123.9921415.4075624.3885212.528.7339628.6593118.4727128.963021433.9051033.6365321.8907833.932991537.0874137.1177624.3832037.3561417.547.6362946.3526931.4475646.460702056.1902456.2865041.7335555.7945121.561.6874462.5553345.6653462.3960723.570.6500671.2521954.3856671.142752577.8860978.0198561.7507177.7018026.586.7238984.9932669.9013084.6240928.596.0584694.6089782.1268793.8234730102.00735102.0590592.42754100.3964431.5109.74730109.713047103.80504107.4593233.5119.66223120.23089120.83548116.1419435127.93239128.34454135.15732124.4814536.5136.33310136.63656150.95244131.1708438.5147.36690147.93264174.55657141.2330840156.02669156.54549194.37665148.79000预测结果显示,bp神经网络能够正确预测出积累因子数值,整体预测效果优于taylor公式计算的结果,并在较高的mfp区间内,通过bp神经网络预测得到的结果更加接近ansi数据库的结果,比mcnp模拟得到的结果还要好。bp神经网络预测的积累因子结果可用于确定论屏蔽计算中。以上所述仅是一种基于bp神经网络计算屏蔽材料积累因子的方法的优选实施方式,一种基于bp神经网络计算屏蔽材料积累因子的方法的保护范围并不仅局限于上述实施例,凡属于该思路下的技术方案均属于本发明的保护范围。应当指出,对于本领域的技术人员来说,在不脱离本发明原理前提下的若干改进和变化,这些改进和变化也应视为本发明的保护范围。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1