一种使用元学习的小样本含能材料性能预测方法、存储设备及终端

文档序号:31050057发布日期:2022-08-06 06:44阅读:151来源:国知局
一种使用元学习的小样本含能材料性能预测方法、存储设备及终端

1.本发明涉及含能材料的技术领域,具体涉及一种使用元学习的小样本含能材料性能预测方法、存储设备及终端。


背景技术:

2.目前,含能材料已广泛应用于军事和民用领域,包括炸药、推进剂和烟火药;优良的综合性能一直是含能材料发展的首要要求,如爆轰性能显著、感度低、环境安全友好、力学性能优良、热稳定性好等;其中,力学性能是含能材料一种重要的实用性能,其对含能材料具有重要意义,直接关系到含能材料的使用安全性和能量大小。
3.材料的力学性能是指在一定温度条件和外力作用下,材料抵抗变形和断裂的能力,对含能材料而言,除温度和外力之外,粒度、形貌、密度、缺陷等表界面特性还会直接影响着力学性能;研究含能材料的力学性能对于指导含能材料配方和结构设计,以及对含能材料进行安全性评估和寿命预测等都具有重要的意义;但是,单纯采用实验技术对其进行研究则会产生研究周期长、成本高、危险性大、影响因素多而导致结果重现性低等问题。
4.从上世纪50年代开始,研究人员通过模拟仿真物质的结构和运动,推演出越来越多复杂的现象,模拟计算方式的出现大大加快了含能材料的研究进展;然而,虽然计算模拟的结果准确可靠,却存在计算过程复杂,模型要求高,耗时长等限制;以体积模量、剪切模量和杨氏模量这三种常见的力学性能为例,得到一个样本需要在指定的配方的温度条件下,使用分子动力学计算得到轨迹文件,而后基于此计算得到的弹性系数矩阵,进而计算得到上述三种模量,获取一个样本所需时间大于48h。
5.综上,由于样本的稀缺,试图纯粹采用计算模拟方式来研究含能材料的力学性能也变得极其困难。


技术实现要素:

6.针对相关技术中存在的不足,本发明所要解决的技术问题在于:提供一种使用元学习的小样本含能材料性能预测方法,在小样本情况下、有效提高预测精度。
7.为解决上述技术问题,本发明采用的技术方案为:
8.一种使用元学习的小样本含能材料性能预测方法,包括如下步骤:
9.s10,确定用于含能性能材料预测的输入特征和输出特征,其中,输入特征包括:晶面、晶面面积占比、温度、密度、结合能和扩散系数,所述输出特征包括:体积模量、剪切模量和杨氏模量;
10.s20,获取样本数据,并将样本数据按比例随机划分为训练集和查询集,并将训练集划分为多个训练任务,多个训练任务共用查询集;
11.s30,构建神经网络预测模型;
12.s40,对训练集的多个训练任务进行元学习,得到神经网络预测模型的最优参数;
13.s50,通过查询集对神经网络预测模型进行优化和评估。
14.优选地,所述步骤s30,构建神经网络预测模型中,所述的神经网络预测模型包括:1个输入层、3个隐含层和1个输出层;
15.其中:3个隐含层分别为:第一隐含层、第二隐含层和第三隐含层;
16.所述输入层包含6个神经元,分别对应于6个输入特征;所述第一隐含层、第二隐含层、第三隐含层均包含有8个神经元;
17.所述输出层包含3个神经元,分别对应于3个输出特征;
18.优选地,将输入特征输入到神经网络预测模型中,经过第一隐含层后,单个神经元的输出为:
[0019][0020]
其中:w表示权值、w的上标0表示输入层,下标的1~6对应于输入层的6个神经元,b0表示输入层的偏置;g1()表示激活函数;
[0021]
经过第二隐含层后,单个神经元的输出为:
[0022][0023]
其中:w的上标1表示第一隐含层,下标的1~8对应于第一隐含层的8个神经元,b1表示第一隐含层的偏置;f1()表示激活函数;
[0024]
经过第三隐含层后,单个神经元的输出为:
[0025][0026]
其中:w表示权值、w的上标2表示第二隐含层,下标的1~8对应于第二隐含层的8个神经元,b2表示第二隐含层的偏置;g2()表示激活函数;
[0027]
经过输出层后,单个神经元的输出为:
[0028][0029]
其中:w表示权值、w的上标3表示第三隐含层,下标的1~8对应于第三隐含层的8个神经元,b2表示第二隐含层的偏置;f2()表示激活函数。
[0030]
优选地,所述激活函数g1()、所述激活函数g2()均为tanh激活函数,且tanh激活函数的表达式为:
[0031][0032]
所述激活函数f1()、激活函数f2()均为relu激活函数,且relu激活函数的表达式为:
[0033]
relu(x)=f1(x)=f2(x)=max(0,x)。
[0034]
优选地,所述步骤s40,对训练集的多个训练任务进行元学习,得到神经网络预测模型的最优参数;具体包括:
[0035]
s401,在训练前,对神经网络预测模型的参数进行随机初始化,得到初始化参数其中,w表神经网络层与层之间连接的权值矩阵、b表示神经网络层与层之间的偏置矩阵;
[0036]
s402,从训练集中,依次选择训练任务,使用元学习方法进行训练,对初始化参数进行迭代更新,得到最优的初始化参数
[0037]
优选地,所述步骤402,从训练集中,依次选择训练任务,使用元学习方法进行训练,对初始化参数进行迭代更新,得到最优的初始化参数具体包括:
[0038]
s4021,选择一个训练任务,将初始化参数赋值至训练任务的局部网络m中,得到迭代参数θm:即:
[0039][0040]
s4022,对迭代参数θm进行1次优化;1次优化的计算表达式为:
[0041][0042]
其中,αm为元学习网络中局部网路m的学习率;
[0043]
使用训练任务的支撑集,对训练任务中的网络参数进行训练,获得训练任务优化后的局部网络参数
[0044]
s4023,基于1次优化后的计算训练任务m的梯度;
[0045]
s4024,基于训练任务m的梯度,对模型参数进行梯度更新,得到更新后的参数
[0046]
s4025,重复步骤s4021至步骤s4024,直至完成迭代循环,学习到一个最优的初始参数
[0047]
优选地,所述步骤s4023,基于1次优化后的计算训练任务的梯度;具体包括:
[0048]
s4023-1,计算训练任务中k个样本的损失函数l1,计算表达式为:
[0049][0050]
其中,y
ij
表示第i个样本的第j维预测值;j=1,2,3,第j维分别对应于体积模量、剪切模量和杨氏模量;
[0051]
表示经过模型计算后的预测值;
[0052]
s4023-2,计算损失函数l1对的梯度,计算表达式为:
[0053][0054]
s4023-3,使用查询集中,计算体积模量、剪切模量和杨氏模量的预测值对真实值的损失函数l2,计算表达式为:
[0055][0056]
其中:表示第1次全局优化时,训练任务m的局部网络参数;
[0057]
表示第1次全局优化时,局部网络在第i个样本第j维的预测值;
[0058]
s4023-4,计算损失函数l2对的梯度,计算表达式为:
[0059][0060]
优选地,所述步骤s4024中,梯度更新的计算表达式为:
[0061][0062]
其中,α
meta
表示元学习网络中全局网络的学习率。
[0063]
相应地,本发明还提供了存储设备,其中存储有多条指令,所述指令适于由处理器加载并执行如上所述的一种使用元学习的小样本含能材料性能预测方法。
[0064]
相应地,本发明还提供了终端,包括:
[0065]
处理器,适于实现各指令;以及
[0066]
存储设备,适于存储多条指令,所述指令适于由处理器加载并执行如上所述的一种使用元学习的小样本含能材料性能预测方法。
[0067]
本发明的有益技术效果在于:
[0068]
本发明提供的一种使用元学习的小样本含能材料性能预测方法,使用时:首先,确定了用于含能性能材料预测的输入特征和输出特征,并构建了神经网络预测模型;其次,获取样本数据,并对样本数据的多个训练任务进行元学习,得到神经网络预测模型的最优参数;再次,通过查询集对神经网络预测模型进行优化和评估,能够得到准确精度高的预测模型,极大的提高了含能材料性能预测的精度,实用性极强。
附图说明
[0069]
图1是本发明实施例一提供的一种使用元学习的小样本含能材料性能预测方法的流程示意图;
[0070]
图2是本发明实施例二中神经网络预测模型的模型结构示意图;
[0071]
图3是本发明实施例三中步骤s40的流程示意图。
具体实施方式
[0072]
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0073]
其次,本发明结合示意图进行详细描述,在详述本发明实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
[0074]
机器学习(machine learning,ml)技术是近年来迅速发展的人工智能分支之一,其在化学领域的应用数量正以惊人的速度增长,广泛用于材料合成指导、分子设计、药物发现,以及各类物质性质预测等;机器学习可以映射结构和性质之间的复杂关系,这些算法和模型可以自动从数据中学习模式,并在没有明确指令的情况下执行任务。
[0075]
元学习是机器学习的一个分支,包括模型无关元学习(model agnostic meta learning,maml)和元强化学习(meta reinforcement learning,mrl)等;其专门解决样本量不足时的分类/回归/强化学习问题;针对含能材料样本的样本稀缺而力学性能亟需研究这一现状,本发明提出了一种使用元学习的小样本含能材料性能预测方法。
[0076]
以下结合附图详细说明所述本发明的一个实施例。
[0077]
实施例一
[0078]
图1是本发明实施例一提供的一种使用元学习的小样本含能材料性能预测方法的流程示意图;如图1所示,一种使用元学习的小样本含能材料性能预测方法,包括如下步骤:
[0079]
s10,确定用于含能性能材料预测的输入特征和输出特征,其中,输入特征包括:晶面、晶面面积占比、温度、密度、结合能和扩散系数,所述输出特征包括:体积模量、剪切模量和杨氏模量;
[0080]
s20,获取样本数据,并将样本数据按比例随机划分为训练集和查询集,并将训练集划分为多个训练任务,多个训练任务共用查询集;
[0081]
s30,构建神经网络预测模型;
[0082]
s40,对训练集的多个训练任务进行元学习,得到神经网络预测模型的最优参数;
[0083]
s50,通过查询集对神经网络预测模型进行优化和评估。
[0084]
本实施例中,采用maml框架算法进行元学习。
[0085]
具体地,对于含能材料而言,不同晶面下的层状模型(复合固体推进剂使用的一种分子动力学计算模型)、温度会对整个计算体系的密度、结合能、扩散系数产生显著影响,这些物理量最终会影响模拟体系的力学性能;因此,本实施例中,选择晶面、晶面面积占比、温度、密度、结合能及扩散系数这6个量作为输入特征;选择体积模量、剪切模量和杨氏模量作为输出特征。
[0086]
进一步地,所述的样本数据可通过实验的方式获得,本实施例中,样本数据的数量为48个,随机分割为36个样本(训练集)和12个样本(查询集),其中36个样本再分为9个训练任务,将每个训练任务中的4个样本作为支撑集,所有的训练任务共用查询集;测试任务可为48个样本中重新随机选择的若干个样本或者另外的新样本。
[0087]
本实施例一提供的一种使用元学习的小样本含能材料性能预测方法,使用时:
[0088]
首先,确定了用于含能性能材料预测的输入特征和输出特征,并构建了神经网络预测模型;
[0089]
其次,获取样本数据,并对样本数据的多个训练任务进行元学习,得到神经网络预测模型的最优参数;
[0090]
再次,通过查询集对神经网络预测模型进行优化和评估,能够得到准确精度高的预测模型,极大的提高了含能材料性能预测的精度,实用性极强。
[0091]
实施例二
[0092]
图2是本发明实施例二中神经网络预测模型的模型结构示意图;如图2所示,所述步骤s30,构建神经网络预测模型中,所述的神经网络预测模型包括:1个输入层、3个隐含层和1个输出层;
[0093]
其中:3个隐含层分别为:第一隐含层、第二隐含层和第三隐含层;
[0094]
所述输入层包含6个神经元,分别对应于6个输入特征;所述第一隐含层、第二隐含
层、第三隐含层均包含有8个神经元;
[0095]
所述输出层包含3个神经元,分别对应于3个输出特征。
[0096]
具体地,将输入特征输入到神经网络预测模型中,经过第一隐含层后,单个神经元的输出为:
[0097][0098]
其中:w表示权值、w的上标0表示输入层,下标的1~6对应于输入层的6个神经元,b0表示输入层的偏置;g1()表示激活函数;
[0099]
经过第二隐含层后,单个神经元的输出为:
[0100][0101]
其中:w的上标1表示第一隐含层,下标的1~8对应于第一隐含层的8个神经元,b1表示第一隐含层的偏置;f1()表示激活函数;
[0102]
经过第三隐含层后,单个神经元的输出为:
[0103][0104]
其中:w表示权值、w的上标2表示第二隐含层,下标的1~8对应于第二隐含层的8个神经元,b2表示第二隐含层的偏置;g2()表示激活函数;
[0105]
经过输出层后,单个神经元的输出为:
[0106][0107]
其中:w表示权值、w的上标3表示第三隐含层,下标的1~8对应于第三隐含层的8个神经元,b2表示第二隐含层的偏置;f2()表示激活函数。
[0108]
进一步地,所述激活函数g1()、所述激活函数g2()均为tanh激活函数,且tanh激活函数的表达式为:
[0109][0110]
所述激活函数f1()、激活函数f2()均为relu激活函数,且relu激活函数的表达式为:
[0111]
relu(x)=f1(x)=f2(x)=max(0,x)。
[0112]
图2搭建的网络中,g1、g2代表激活函数tanh,f1、f1代表激活函数relu。
[0113]
本实施例中,构建了5层的神经网络预测模型,该模型包括3个隐含层,提升了每次迭代中向最优参数的接近程度。
[0114]
实施例三
[0115]
图3是本发明实施例三中步骤s40的流程示意图,如图3所示,所述步骤s40,对训练集的多个训练任务进行元学习,得到神经网络预测模型的最优参数;具体包括:
[0116]
s401,在训练前,对神经网络预测模型的参数进行随机初始化,得到初始化参数其中,w表神经网络层与层之间连接的权值矩阵、b表示神经网络层与层之间的偏置矩阵;
[0117]
s402,从训练集中,依次选择训练任务,使用元学习方法进行训练,对初始化参数进行迭代更新,得到最优的初始化参数
[0118]
具体地,所述步骤402,从训练集中,依次选择训练任务,使用元学习方法进行训
练,对初始化参数进行迭代更新,得到最优的初始化参数具体包括:
[0119]
s4021,选择一个训练任务,将初始化参数赋值至训练任务的局部网络m中,得到迭代参数θm:即:
[0120][0121]
本实施例中,选取4个样本作为训练任务的支撑集,然后将迭代的参数作为模型初始的参数0:例如样本:
[0122]
x1=1.863,x2=-1036.39,x3=0.00665,x4=293,x5=111,x6=0.7162;
[0123]
y1=17.8902y2=8.3846,y3=10.98007;
[0124]
x1代表密度,x2代表结合能,x3代表扩散系数,x4代表温度,x5代表晶面,x6代表晶面面积占比;y1代表体积模量,y2代表剪切模量,y3代表杨氏模量。
[0125]
s4022,对迭代参数θm进行1次优化;1次优化的计算表达式为:
[0126][0127]
其中,αm为元学习网络中局部网路m的学习率;
[0128]
使用训练任务的支撑集,对训练任务中的网络参数进行训练,获得训练任务优化后的局部网络参数
[0129]
s4023,基于1次优化后的计算训练任务m的梯度;
[0130]
s4024,基于训练任务的梯度,对模型参数进行梯度更新,得到更新后的参数
[0131]
s4025,重复步骤s4021至步骤s4024,直至完成迭代循环,学习到一个最优的初始参数
[0132]
具体地,所述步骤s4023,基于1次优化后的计算训练任务的梯度;具体包括:
[0133]
s4023-1,计算训练任务中k个样本的损失函数l1,计算表达式为:
[0134][0135]
其中,y
ij
表示第i个样本的第j维预测值;j=1,2,3,第j维分别对应于体积模量、剪切模量和杨氏模量;
[0136]
表示经过模型计算后的预测值;
[0137]
s4023-2,计算损失函数l1对的梯度,计算表达式为:
[0138][0139]
s4023-3,使用查询集中,计算体积模量、剪切模量和杨氏模量的预测值对真实值的损失函数l2,计算表达式为:
[0140]
[0141]
其中:表示第1次全局优化时,训练任务m的局部网络参数;
[0142]
表示第1次全局优化时,局部网络在第i个样本第j维的预测值;
[0143]
s4023-4,计算损失函数l2对的梯度,计算表达式为:
[0144][0145]
进一步地,所述步骤s4024中,梯度更新的计算表达式为:
[0146][0147]
其中,α
meta
表示元学习网络中全局网络的学习率。
[0148]
更进一步地,重复步骤s4021至步骤s4024的具体过程,以其中一个循环为例,示意如下:
[0149]
a4021重新选择一个新的训练任务,将初始化参数赋值至新的训练任务的局部网络n中,得到迭代参数θn:即:
[0150][0151]
a4022,对迭代参数θn进行1次优化;1次优化的计算表达式为:
[0152][0153]
其中,αn为元学习网络中局部网路n的学习率;
[0154]
使用新的训练任务的支撑集中的样本,对新的训练任务中的网络参数进行训练,获得训练任务优化后的局部网络参数
[0155]
a4023,基于1次优化后的计算训练任务n的梯度;具体为:
[0156]
a4023-1,计算新的训练任务中k个样本的损失函数l3,计算表达式为:
[0157][0158]
其中,y
ij
表示第i个样本的第j维预测值;j=1,2,3,第j维分别对应于体积模量、剪切模量和杨氏模量;
[0159]
表示经过模型计算后的预测值;
[0160]
a4023-2,计算损失函数l1对的梯度,计算表达式为:
[0161][0162]
a4023-3,使用查询集中,计算体积模量、剪切模量和杨氏模量的预测值对真实值的损失函数l2,计算表达式为:
[0163][0164]
其中:表示第2次全局优化时,新的训练任务的局部网络参数;
[0165]
表示第2次全局优化时,局部网络在第i个样本第j维的预测值;
[0166]
a4023-4,计算损失函数l4对的梯度,计算表达式为:
[0167][0168]
a4024,基于训练任务的梯度,对模型参数进行梯度更新,得到更新后的参数
[0169][0170]
本实施例中,所述步骤s50,通过查询集对神经网络预测模型进行优化和评估;可为:通过元学习得到元学习网络的参数后,可应用该参数用于测试任务的查询集中;
[0171]
或可使用测试任务的支撑集对元学习网络的参数进行进一步微调后再进行评估。
[0172]
本发明还提供了一种存储设备,其中存储有多条指令,所述指令适于由处理器加载并执行如上述的一种使用元学习的小样本含能材料性能预测方法。
[0173]
所述存储设备可为一计算机可读存储介质,可以包括:ron、ran、磁盘或光盘等。
[0174]
本发明还提供了一种终端,所述终端可包括:
[0175]
处理器,适于实现各指令;以及
[0176]
存储设备,适于存储多条指令,所述指令适于由处理器加载并执行如上述的一种使用元学习的小样本含能材料性能预测方法。
[0177]
所述终端可为任意能够实现物品防伪溯源的装置,该装置可以是各种终端设备,例如:台式电脑、手提电脑等,具体可以通过软件和/或硬件来实现。
[0178]
通过实验,本发明可在小样本(样本量在50左右)的情况下能够预测出精度在90%以上的含能材料力学性能。
[0179]
综上,本发明中,通过元学习将含能材料的推进剂配方与力学性能的预测相结合,能够得到准确精度高的预测模型,极大的提高了预测精度,实用性极强。
[0180]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
[0181]
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0182]
可以理解的是,上述方法、装置及系统中的相关特征可以相互参考。另外,上述实施例中的“第一”、“第二”等是用于区分各实施例,而并不代表各实施例的优劣。
[0183]
所述领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0184]
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其他设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本发明也不针对任何特定的编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
[0185]
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1