1.本发明属于图
神经网络的可解释性领域,具体是使用网络模体技术与反
事实推理优化方法来实现图神经网络可解释性的方法。
背景技术:
2.图神经网络在不同类型的图数据上均表现出优异的性能,例如:社会网络、引文网络和分子网络等。图神经网络还可以有效地捕获节点特征和图拓扑结构,有利于图/节点分类和链路预测等。理解和解释图神经网络的预测原理是释放图神经网络安全性、可信度和普遍应用的关键。与欧几里得数据不同,图数据可以是任何大小和复杂的拓扑结构,所以传统的深度学习方法不能直接引用图形数据。
3.当前图神经网络的可解释性方法分为:通用的模型不可知方法(rex ying,dylan bourgeois,jiaxuan you,marinka zitnik,and jure leskovec.2019.gnn explainer:a tool for post-hoc explanation of graph neural networks.)和实例级方法(dongsheng luo,wei cheng,dongkuan xu,wenchao yu,bo zong,haifeng chen,and xiang zhang.2020.parameterized explainer for graph neural network.和wanyu lin,hao lan,and baochun li.2021.generative causal explanations for graph neural networks,vol.139.)。模型不可知方法是通过训练软掩码,为一个给定的实例提供了可解释的解释;实例级方法是通过识别重要的边或节点特征来生成子图。但是它们大多忽略了图数据中独特的高阶结构特征。
4.基于网络模型的图神经网络可解释方法采用网络模体感知子图生成模块和反事实优化层,可以为图神经网络提供高质量的反事实解释,同时关注图数据的高阶特征。模体具有现实意义、频繁出现、低阶结构的特性,基于网络模体的图神经网络可解释方法为输入图生成一个可学习的掩模
矩阵,构造一个模体邻接矩阵来调整子图的生成,利用反事实推理优化持续更新可学习的掩模矩阵,得到可解释子图,实现图神经网络的可解释性。
技术实现要素:
5.本发明主要解决了关于图神经网络高质量的反事实可解释性的问题,将图神经网络对用户的不透明性转变为透明性,利用网络模体现实意义、高频出现、低阶结构的特性,提升解释图神经网络的预测能力、提高深度模型部署的安全性和可信度,除此之外还关注图数据的高阶特性问题。由于图中没有固定的节点排序或参考点,所以提出一种基于网络模体的图神经网络可解释方法,本方法采用模型感知子图生成模块和反事实优化层。解释任务的目标是从给定输入图中到关于预测的最重要的子图,进而学习图分类器来预测输入图的估计标签。
6.本发明的技术方案:
7.一种基于网络模体的图神经网络可解释方法,
步骤如下:
8.步骤100,根据输入图g实例邻接矩阵a生成gnns预测的可解释子图gs,通过为模体
邻接矩阵wm构建模体感知矩阵来指导子图gs生成;
9.步骤101,根据n
×
n正态分布初始化构造一个与图实例邻接矩阵a形状相同的随机掩模矩阵m,根据步骤102通过随机掩码矩阵m计算模体邻接矩阵wm=w(m);
10.步骤102,用模体邻接矩阵wm作为模体感知矩阵指导生成gnns预测的可解释子图gs;包含节点(i,j)的模体邻接矩阵计算公式为:其中,(wm)
i,j
表示包含节点i和节点j的模体的权重之和;1(
·
)是真值指示函数,如果1中的语句为真,取值为1,否则取值为0;υ是整个节点集,χυ是一个选择函数,用来取υ的子集;
11.步骤103,使用sigmoid激活函数将随机掩模矩阵m标准化,将变量映射到0,1之间;
12.步骤104,得到可解释子图gs生成公式为:将步骤101中随机掩模矩阵m、步骤102中模体邻接矩阵wm与调整模体对掩模效果的超参数δ进行矩阵相乘得到m
′
,即m
′
=m
·
wm·
δ;通过改变超参数δ控制模体邻接矩阵wm对生成的可解释子图gs的影响;
13.步骤105,计算步骤104中可解释子图gs的邻接矩阵as,将输入的图实例邻接矩阵a与步骤104得到的m
′
相乘得到子图邻接矩阵as,即根据子图邻接矩阵as与图实例邻接矩阵a计算反事实邻接矩阵a
cf
,即a
cf
=a-as;
14.步骤106,将步骤105中得到的子图邻接矩阵as的集合构成生成子图,并返回生成可解释子图gs;将步骤105中得到的反事实邻接矩阵a
cf
的集合构成反事实图,并返回反事实图g
cf
;
15.步骤200,反事实优化;步骤201可以有效地限制解释的大小,防止解释的无限扩展以满足反事实性;同时控制反事实图和原始图之间的差异,保证反事实解释的变化是最小的。计算最大的反事实推理条件l
cf
和优化模型;
16.步骤201,根据步骤106得到反事实图g
cf
中预测c发生概率与输入图g中预测c发生概率之间差值的绝对值表示两图之间的预测差异,即
17.步骤202,用距离函数d(
·
)来减小反事实图g
cf
与输入图g之间的差异,即d(g
cf
,g);事实图g
cf
与原始图g的差异具体分为两种模式,分别是解释大小的差异d(
·
)
size
和解释稀疏性差异d(
·
)
sparsity
;应用l1范数计算事实图g
cf
解释大小l1(g
cf
)与原始图g解释大小l1(g)的差异d(
·
)
size
,即d(g
cf
,g)
size
=l1(g
cf
)/l1(g),解释解释稀疏性差异
18.步骤203,计算最大的反事实推理条件:首先通过步骤201中计算的反事实图与原始图之间的预测差距diff(g
cf
,g),然后通过步骤202计算得到反事实图与原始图之间的差距d(g
cf
,g),最后利用超参λ调节步骤201与步骤202计算结果的平衡性,即argmaxl
cf
=λdiff(p
ψ
(c|g
cf
),p
ψ
(c|g))+d(g,g
cf
);
19.步骤204,计算反事实优化模型,根据超参数α平衡解释的真实性和反事实性比例,解释子图的预测为步骤202中超参数λ,步骤203中最大的反事实推理条件,计算得到优化模型如下:
[0020][0021]
本发明的有益效果:本发明的可解释性方法,根据模体邻接矩阵与反事实优化方法实现对图神经网络的可解释性,将图神经网络的预测行为变为人类理解的因果关系。第一部分是得到模体邻接矩阵;首先根据输入图形得到与输入图形邻接矩阵形状相同的可学习的随机掩码矩阵。然后根据选择函数确定包含于选择函数内的节点权重之和,得到一个模体的邻接矩阵生成函数。根据模体邻接矩阵、随机掩码矩阵、模体对掩码影响的超参数联合作用,得到子图生成规则。通过改变超参数大小,可以控制模体邻接矩阵对子图生成的影响。最后根据输入图形的邻接矩阵与子图生成规则,得到子图和反事实图。第二部分是反事实推理;通过反事实推理方式,利用否定形式来降低产生“伪关系”的可能性,得到“因果关系”。在图神经网络可解释性中,当图神经网络未改变时,子图和原始图的预测是相同的;而当输入产生最小变化的时候,预测将会随之改变。本发明创建了一种在图神经网络中使用网络模体的方法,可以识别出图神经网络中高频出现的低阶结构模体,通过反事实推论证明该模体对实际预测结果有十分重要的影响,从而对图神经网络的可解释性起到关键的作用,并且可以提供更好的解释服务。本发明讨论了模型超参数和解释大小对模型性能的影响,在合成和真实数据集上均展示优于其他基线的性能。本发明创建的方法是模型不可知的,因此在理论上适用于所有的图神经网络。
附图说明
[0022]
图1是本发明提供的基于网络模体的图神经网络可解释性方法的实现流程图;
[0023]
图2是步骤100的实现流程图;
[0024]
图3是步骤200的实现流程图。
具体实施方式
[0025]
为使本发明解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
[0026]
图1是本发明提供的基于网络模体的图神经网络可解释性方法的实现流程图。如图1所示,本发明实施例提供的基于网络模体的图神经网络可解释性方法,包括:
[0027]
步骤100,根据输入图g实例邻接矩阵a生成gnns预测的可解释子图gs,通过为模体邻接矩阵wm构建模体感知矩阵来指导子图gs生成。
[0028]
如图2所示,步骤100包括如下步骤101至步骤106:
[0029]
步骤101,根据n
×
n正态分布初始化构造一个与图实例邻接矩阵a形状相同的随机掩模矩阵m,根据步骤102通过随机掩码矩阵m计算模体邻接矩阵wm=w(m);
[0030]
在本步骤中,随机掩模矩阵m是可学习的掩码矩阵,可以根据优化模型进行更新学习。
[0031]
步骤102,用模体邻接矩阵wm作为模体感知矩阵指导生成子图gs,(wm)
i,j
表示包含节点i和j的模体的权重之和。1(
·
)是真值指示函数,如果1中的语句为真,它将取值为1。υ
是整个节点集,χυ是一个选择函数,用来取υ的子集。包含节点(i,j)的模体邻接矩阵计算公式为:
[0032]
步骤103,使用sigmoid激活函数将随机掩模矩阵m标准化,将变量映射到0,1之间。
[0033]
步骤104,得到可解释子图gs生成公式为:将步骤103中随机掩模矩阵m、步骤102中模体邻接矩阵wm与调整模体对掩模效果的超参数δ进行矩阵相乘得到m
′
,即m
′
=m
·
wm·
δ;通过改变超参数δ控制模体邻接矩阵wm对生成的子图的影响。
[0034]
在本实施例中,子图生成公式可以表示为m
′
=m
·
wm·
δ,其中δ代表模体感知矩阵对子图解释的影响程度,通过调节其大小,可以调节子图生成公式。
[0035]
步骤105,计算步骤104中子图gs的邻接矩阵as,将输入的图实例的邻接矩阵a与步骤104得到的m
′
相乘得到子图邻接矩阵as,即根据子图邻接矩阵as与图实例邻接矩阵a计算反事实邻接矩阵a
cf
,即a
cf
=a-as;
[0036]
在本实施例中,子图邻接矩阵对应公式表示为αs=α
·m′
,也可以得到反事实图矩阵α
cf
=α-α
·m′
。
[0037]
步骤106,将步骤105中得到的子图邻接矩阵as的集合构成生成子图,并返回生成子图gs。将步骤105中得到的反事实邻接矩阵a
cf
的集合构成反事实图,并返回反事实图g
cf
;
[0038]
在本实施例中,gs←
{αs}。
[0039]
如图3所示,反事实优化,得到反事实推理的条件和优化模型。
[0040]
步骤200,限制解释的大小,防止解释的无限扩展,以满足反事实性,得到最大的反事实推理条件和优化模型。步骤200包括如下步骤201至步骤204:
[0041]
步骤201,由106步骤得到反事实图g
cf
;根据反事实图g
cf
中预测c发生概率与输入图g中预测c发生概率之间差值的绝对值表示两图之间的预测差异,即
[0042]
在本实施例中,差值函数可以表示diff(g
cf
,g)=|p
ψ
(c|g
cf
)-p
ψ
(c|g)|
[0043]
步骤202,用距离函数d(
·
)来减小反事实图g
cf
与输入图g之间的差异,即d(g
cf
,g);事实图g
cf
与输入图g的差异具体分为两种模式,分别是解释大小的差异d(
·
)
size
,和解释稀疏性差异d(
·
)
sparsity
。应用l1范数计算事实图g
cf
解释大小l1(g
cf
)与输入图g解释大小l1(g)的差异d(
·
)
size
,即d(g
cf
,g)
size
=l1(g
cf
)/l1(g),解释解释稀疏性差异
[0044]
步骤203,利用超参调节:步骤202中的反事实图与输入图g之间的预测差距,步骤203得到反事实图与原始图之间的差距。最终得到最大的反事实推理条件。
[0045]
步骤203,计算最大的反事实推理条件:首先通过步骤201中计算的反事实图与原始图之间的预测差距diff(g
cf
,g),然后通过步骤202计算得到反事实图与原始图之间的差距d(g
cf
,g),最后利用超参λ调节步骤201与步骤202计算结果的平衡性,即argmaxl
cf
=λdiff(p
ψ
(c|g
cf
),p
ψ
(c|g))+d(g,g
cf
);
[0046]
步骤204,计算反事实优化模型,根据超参数α平衡解释的真实性和反事实性比例,解释子图的预测为步骤202中超参数λ,步骤203中最大的反事实推理条件,计算得到优化模型如下:
[0047][0048]
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
技术特征:
1.一种基于网络模体的图神经网络可解释方法,其特征在于,步骤如下:步骤100,根据输入图g实例邻接矩阵a生成gnns预测的可解释子图g
s
,通过为模体邻接矩阵w
m
构建模体感知矩阵来指导子图g
s
生成;步骤101,根据n
×
n正态分布初始化构造一个与图实例邻接矩阵a形状相同的随机掩模矩阵m,根据步骤102通过随机掩码矩阵m计算模体邻接矩阵w
m
=w(m);步骤102,用模体邻接矩阵w
m
作为模体感知矩阵指导生成gnns预测的可解释子图g
s
;包含节点(i,j)的模体邻接矩阵计算公式为:其中,(w
m
)
i,j
表示包含节点i和节点j的模体的权重之和;1(
·
)是真值指示函数,如果1中的语句为真,取值为1,否则取值为0;υ是整个节点集,χυ是一个选择函数,用来取υ的子集;步骤103,使用sigmoid激活函数将随机掩模矩阵m标准化,将变量映射到0,1之间;步骤104,得到可解释子图g
s
生成公式为:将步骤101中随机掩模矩阵m、步骤102中模体邻接矩阵w
m
与调整模体对掩模效果的超参数δ进行矩阵相乘得到m
′
,即m
′
=m
·
w
m
·
δ;通过改变超参数δ控制模体邻接矩阵w
m
对生成的可解释子图g
s
的影响;步骤105,计算步骤104中可解释子图g
s
的邻接矩阵a
s
,将输入的图实例邻接矩阵a与步骤104得到的m
′
相乘得到子图邻接矩阵a
s
,即根据子图邻接矩阵a
s
与图实例邻接矩阵a计算反事实邻接矩阵a
cf
,即a
cf
=a-a
s
;步骤106,将步骤105中得到的子图邻接矩阵a
s
的集合构成生成子图,并返回生成可解释子图g
s
;将步骤105中得到的反事实邻接矩阵a
cf
的集合构成反事实图,并返回反事实图g
cf
;步骤200,反事实优化;计算最大的反事实推理条件l
cf
和优化模型;步骤201,根据步骤106得到反事实图g
cf
中预测c发生概率与输入图g中预测c发生概率之间差值的绝对值表示两图之间的预测差异,即步骤202,用距离函数d(
·
)来减小反事实图g
cf
与输入图g之间的差异,即d(g
cf
,g);事实图g
cf
与原始图g的差异具体分为两种模式,分别是解释大小的差异d(
·
)
size
和解释稀疏性差异d(
·
)
sparsity
;应用l1范数计算事实图g
cf
解释大小l1(g
cf
)与原始图g解释大小l1(g)的差异d(
·
)
size
,即d(g
cf
,g)
size
=l1(g
cf
)/l1(g),解释解释稀疏性差异步骤203,计算最大的反事实推理条件:首先通过步骤201中计算的反事实图与原始图之间的预测差距diff(g
cf
,g),然后通过步骤202计算得到反事实图与原始图之间的差距d(g
cf
,g),最后利用超参λ调节步骤201与步骤202计算结果的平衡性,即arg maxl
cf
=λdiff(p
ψ
(c|g
cf
),p
ψ
(c|g))+d(g,g
cf
);步骤204,计算反事实优化模型,根据超参数α平衡解释的真实性和反事实性比例,解释子图的预测为步骤202中超参数λ,步骤203中最大的反事实推理条件,计算得到优化模型如下:
技术总结
本发明属于图神经网络的可解释性领域,公开了一种基于网络模体的图神经网络可解释方法,可以识别出图神经网络中高频出现的低阶结构模体,通过反事实推论证明该模体对实际预测结果有十分重要的影响,从而对图神经网络的可解释性起到关键的作用,并且可以提供更好的解释服务。本发明讨论了模型超参数和解释大小对模型性能的影响,在合成和真实数据集上均展示优于其他基线的性能。本发明创建的方法是模型不可知的,因此在理论上适用于所有的图神经网络。络。络。
技术研发人员:
于硕 罗乃文 丁锋 王婷婷
受保护的技术使用者:
大连理工大学
技术研发日:
2022.11.21
技术公布日:
2023/3/3