一种保持预测顺序和结构依赖关系的图神经网络解释方法

文档序号:31786919发布日期:2022-10-12 14:01阅读:61来源:国知局
一种保持预测顺序和结构依赖关系的图神经网络解释方法

1.本发明属于神经网络解释技术领域,具体涉及一种保持预测顺序和结构依赖关系的图神经网络解释方法。


背景技术:

2.在现实生活中,存在许多图数据,包括社交网络、知识图谱和蛋白质相互作用网络等。图神经网络(graph neural networks,gnns)将深度神经网络推广到图中,在一个连续的嵌入空间中学习图的表示,以便于下游任务。由于gnns在表示图数据方面的出色能力,它在链接预测、图分类、节点分类等任务中表现出了优异的性能。
3.作为深层神经网络的推广,gnn多层叠加,利用非线性激活函数构造模型。尽管复杂的设计架构确保了其强大的图形表示能力,但它也存在不可解释的问题。gnn模型没有为解释其预测行为设计明确地目标函数,仅以端到端的方式优化参数。因此,gnn往往充当了一个黑匣子。由于其无法解释的模式,无法保证gnn模型的公平性和可信度,从而影响了gnn在关键应用中的广泛应用。
4.为此,很多学者开始研究图形神经网络的可解释性。这些方法通过确定对gnn的预测贡献最大的子图(特征/结构的子集),对一个给定的具体实例进行解释。现有的基于扰动的图神经网络解释方法使用掩码生成器以边子集的形式生成解释。其中,当将原始图形和生成的子图输入到要解释的模型时,掩码生成器的优化由结果的差异来指导。这类方法的关键在于两点:第一是设计目标函数,用于在使用原始图形和生成的图形作为输入时评估预测结果的差异。第二是设计一个强大的掩码生成器,能够确定应该掩盖或保留的边缘。然而现有的研究方法在设计目标函数时没有考虑预测结果的顺序一致性问题,在设计掩码生成器时没有考虑图数据中存在结构依赖的关键特性,因此导致解释结果不能形成完整子图。


技术实现要素:

5.针对现有技术存在的不足,本发明提出了一种保持预测顺序和结构依赖关系的图神经网络解释方法,该方法包括:
6.s1:获取原始图数据,将原始图数据输入待解释的图神经网络模型,得到原始的预测结果;其中,原始图数据是一种情感分析的图分类数据,每个图是一条句子,图中每个节点是一个词,边是词语之间的关系;
7.s2:采用掩码生成器对原始图数据进行掩码,得到掩码后的子图;
8.s3:将掩码后的子图输入到待解释的图神经网络模型,得到掩码后的预测结果;
9.s4:根据原始预测结果和掩码后的预测结果计算总损失;
10.s5:根据总损失优化掩码生成器,重复步骤s2~s4,直到得到最优掩码生成器;
11.s6:采用最优掩码生成器对原始图数据进行掩码,得到掩码后的子图即原始预测结果的解释。
12.优选的,采用掩码生成器对原始图数据进行掩码的过程包括:
13.s21:将原始图的节点转换为新图的边,将原始图的边转换为新图的节点,在新图中有数据流的节点间建立边;
14.s22:将新图输入到图注意力网络模型中进行处理,得到隐变量;
15.s23:根据隐变量,采用离散分布的重参数技巧计算每条边的重要性分数,根据边的重要性分数对原始图的边进行掩码,得到掩码后的子图。
16.优选的,得到隐变量的公式为:
[0017][0018]
其中,ω表示隐变量集合,表示掩码生成器网络模型,表示新图的邻接矩阵;表示新图的节点特征,表示掩码生成器的参数。
[0019]
进一步的,计算每条边的重要性分数的公式为:
[0020]mpq
=c(ωi,∈,τ2)=σ((log∈-log(1-∈)+ωi)/τ2)
[0021]
其中,m
pq
表示掩码节点p和节点q所连接的边ei的重要性得分,ωi表示隐变量集合中第i个隐变量,∈表示第一参数,τ2表示第二超参数。
[0022]
优选的,计算总损失的过程包括:
[0023]
s41:计算掩码后预测结果的逆排序矩阵,根据逆排序矩阵调整原始预测结果的顺序;
[0024]
s42:将原始预测调整顺序后的结果输入到plackett-luce模型计算排序损失;
[0025]
s43:计算原始预测结果和掩码后预测结果之间的值差异性损失;
[0026]
s44:根据每条边的重要性分数获得掩码矩阵,计算掩码矩阵的一阶范数;
[0027]
s45:根据排序损失、值差异性损失和掩码矩阵的一阶范数计算总损失。
[0028]
进一步的,计算逆排序矩阵的公式为:
[0029][0030]
其中,表示逆排序矩阵的第i行,softmax()表示归一化指数函数,表示掩码后的预测结果,表示预测结果中两两概率值之间差的绝对值,i表示矩阵的第i行,1是一个全1的列向量,τ1是温度参数,n表示一个图中节点的个数。
[0031]
进一步的,调整原始预测结果的顺序的公式为:
[0032][0033]
其中,表示原始预测y调整顺序后的结果,表示逆排序矩阵,y表示原始预测结果。
[0034]
进一步的,计算排序损失的公式:
[0035][0036]
其中,l
pl
表示排序损失,表示原始预测y调整顺序后的结果的第i个位置的值。
[0037]
进一步的,计算值差异性损失的公式为:
[0038]
l
diff
=||f(a,x,w)-f(m

a,x,w)||1[0039]
其中,l
diff
表示值差异性损失,f(a,x,w)表示原始图数据输入图神经网络模型得到的预测结果,f(m

a,x,w)表示原始图数据掩码后输入图神经网络模型得到的预测结果。
[0040]
进一步的,计算总损失的公式为:
[0041][0042]
其中,表示总损失,l
pl
表示排序损失,l
diff
表示值差异性损失,lm表示掩码矩阵的一阶范数。
[0043]
本发明的有益效果为:本发明通过对掩码生成器进行优化,采用优化后的掩码生成器对原始图数据进行处理,得到原始图数据的解释结果;相比现有技术,本发明考虑了原始预测结果和掩码后预测结果之间顺序一致性以及原始图数据中边之间的依赖关系,能准确提取完整的对分类结果有重要作用的输入子图,对原始图数据的解释结果准确率高,可靠性好;解决了当前基于扰动的图神经网络解释方法没有考虑原始预测结果和掩码后预测结果之间顺序一致性,没有显式考虑边之间依赖关系的问题,实用性高。
附图说明
[0044]
图1为本发明中保持预测顺序和结构依赖关系的图神经网络解释方法的流程图;
[0045]
图2为本发明中保持预测顺序和结构依赖关系的图神经网络解释方法的框架图;
[0046]
图3为本发明中一句子的原始图数据示意图;
[0047]
图4为本发明中原始图转换为新图的过程示意图;
[0048]
图5为本发明中计算排序损失的过程示意图。
具体实施方式
[0049]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0050]
本发明提出了一种保持预测顺序和结构依赖关系的图神经网络解释方法,如图1、图2所示,所述方法包括:
[0051]
s1:获取原始图数据,将原始图数据输入待解释的图神经网络模型,得到原始的预测结果。
[0052]
获取原始图数据,原始图数据是一种情感分析的图分类数据,每个图是一条句子,图中每个节点是一个词,边是词语之间的关系;将原始图数据输入待解释的图神经网络中,可得到原始的预测结果,原始的预测结果为当前图被分到每一类的概率即该句子属于哪种情感。例如图3所示,图3为句子“they're translating sarah palin's book to crude representations of totalitarianism with marmaduke as a protagonist.resprct!”的原始图数据。
[0053]
s2:采用掩码生成器对原始图数据进行掩码,得到掩码后的子图。
[0054]
s21:将原始图的节点转换为新图的边,将原始图的边转换为新图的节点,在新图中有数据流的节点间建立边。
[0055]
如图4所示,最左边为原始图,最右边为转换后的新图。首先将原始图中的边e0、e1、e2、e3转换为新图的节点。其次,原图中边e2和e0共享节点v1,并且边e2和e0构成有数据流的链式结构,因此在新图中e2和e0之间建立边v1。反之,原图中边e1和e2共享节点v2,但是它们构成无数据流分支结构,所依新图中e1和e2之间不建立边。
[0056]
s22:将新图输入到图注意力网络(gat)模型,得到隐变量ω。
[0057]
将转换后的新图输入图注意力网络(gat)模型,经过relu激活函数和softmax层可得到隐变量ω,计算隐变量的公式为:
[0058][0059]
其中,ω表示隐变量集合,表示掩码生成器网络模型,表示新图的邻接矩阵;表示新图的节点特征,表示掩码生成器的参数。
[0060]
s23:根据隐变量,采用离散分布的重参数技巧计算每条边的重要性分数,根据边的重要性分数对原始图的边进行掩码,得到掩码后的子图。
[0061]
计算每条边的重要性分数的公式为:
[0062]mpq
=c(ωi,∈,τ2)=σ((log∈-log(1-∈)+ωi)/τ2)
[0063]
其中,m
pq
表示掩码节点p和节点q所连接的边ei的重要性得分,ωi∈ω表示隐变量集合中第i个隐变量即掩码生成器的输出值;∈表示第一超参数,τ2表示第二超参数,且∈~uniform(0,1),τ2∈[0,2]。
[0064]
根据边的重要性分数,可得到掩码矩阵m,m
pq
为掩码矩阵m中第p行第q列的元素,通过掩码矩阵对原始图的边进行掩码,可得到掩码后的子图。
[0065]
s3:将掩码后的子图输入到待解释的图神经网络模型,得到掩码后的预测结果。
[0066]
s4:根据原始预测结果和掩码后的预测结果计算总损失。
[0067]
s41:计算掩码后预测结果的逆排序矩阵,根据逆排序矩阵调整原始预测结果的顺序。
[0068]
如图5所示,采用neuralsort(神经网络排序)算法计算掩码后预测结果的逆排序矩阵,公式为:
[0069][0070]
其中,表示逆排序矩阵的第i行,softmax()表示归一化指数函数,表示掩码后的预测结果,表示预测结果中两两概率值之间差的绝对值i表示矩阵的第i行,1是一个全1的列向量,τ1是温度参数,n表示一个图中节点的个数。
[0071]
当τ1→0+

[0072]
[0073]
其中表示按逆排序的位置索引,是第i位的值。
[0074]
采用排序矩阵对原始预测结果调整顺序的公式为:
[0075][0076]
其中,表示原始预测y调整顺序后的结果,表示逆排序矩阵,y表示原始预测结果。
[0077]
s42:将原始预测y调整顺序后的结果输入到plackett-luce模型计算排序损失。
[0078]
plackett-luce模型是一个概率分布模型,是描述排序概率分布的模型。plackett-lucet模型把求解排序概率的过程分成多个阶段,在每个阶段中求解每个模型参数在当前阶段排序最优的概率,根据概率选出当前阶段最优的模型参数。然后进入下一阶段继续选择,直到所有阶段结束,且每个阶段相互独立互不影响。
[0079]
计算排序损失的公式为:
[0080][0081]
其中,l
pl
表示排序损失,表示原始预测y调整顺序后的结果的第i个位置的值。
[0082]
s43:计算原始预测结果和掩码后预测结果之间的值差异性损失。
[0083]
计算值差异性损失的公式为:
[0084]
l
diff
=||f(a,x,w)-f(m

a,x,w)||1[0085]
其中,l
diff
表示值差异性损失,f(a,x,w)表示原始图数据输入图神经网络模型得到的预测结果,f(m

a,x,w)表示原始图数据掩码后输入图神经网络模型得到的预测结果。
[0086]
s44:根据每条边的重要性分数获得掩码矩阵,也就是边的重要性分数矩阵。为了使用尽可能少的重要边作为解释结果,掩码矩阵必须尽可能稀疏。所以,计算掩码矩阵的一阶范数,将其作为掩码稀疏性的约束条件;计算掩码矩阵的一阶范数的公式为:
[0087]
lm=||m||1[0088]
其中,lm表示掩码矩阵m的一阶范数,m表示掩码矩阵,其第p行第q列的元素为边的重要性分数m
pq

[0089]
s45:根据排序损失、值差异性损失和掩码矩阵的一阶范数计算总损失。
[0090]
对排序损失、值差异性损失和掩码矩阵的一阶范数进行求和,可得到总损失,计算公式为:
[0091][0092]
其中,表示总损失,l
pl
表示排序损失,l
diff
表示值差异性损失,lm表示掩码矩阵的一阶范数。
[0093]
本发明的采用的排序损失可以保证原预测结果y(包含输入图被预测到每个类别的概率)和掩码后预测结果(包含掩码后输入图被预测到每个类别的概率)的顺序保持一致,值差异性损失可以保证两个预测结果对应类别的概率一致,这样就可以保证掩码前后
预测结果中每个类别预测概率保持一致。而现有技术只能保证输入图被预测到正确类别的原预测概率和掩码后预测概率一致,也就是只能保证预测结果中其中一个类别的预测概率保持一致,其他类别就不一定了,因此,采用本发明的损失函数优化掩码生成器进行解释原始图数据可以保证掩码前后预测结果中每个类别预测概率的一致性,从而更准确的模拟原模型的预测行为,使得解释结果更加准确。
[0094]
s5:根据总损失优化掩码生成器,重复步骤s2~s4,直到得到最优掩码生成器。
[0095]
设置迭代次数t,重复执行步骤s2~s4,并将总损失反向传播,根据总损失更新掩码生成器参数,优化掩码生成器,当到达迭次次数t时,停止执行,此时得到最优掩码生成器。
[0096]
s6:采用最优掩码生成器对原始图数据进行掩码,得到掩码后的子图即原始预测结果的解释。
[0097]
例如,如图3所示,图中颜色比较深的部分“translating palin's book to crude representations”是掩码后的子图。也就是说,认为这部分内容是导致该句子被分为负面情感类别的重要原因,是图神经网络模型分类结果的解释;针对情感分析,本发明可通过获取情感分析模型的解释结果从而分析情感分类模型的性能,有利于对模型参数进行调整以便获得更加准确的情感分析结果。
[0098]
需要说明的是,本领域普通技术人员可以理解实现上述方法实施例中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括上述各方法实施例的流程。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(read-0nly memory,rom)或随机存储记忆体(random access memory,ram)等。
[0099]
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1