基于相似度随机游走聚合的图节点分类算法

车翔玖 ,  孙雨鹏

吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (06) : 2069 -2075.

PDF (591KB)
吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (06) : 2069 -2075. DOI: 10.13229/j.cnki.jdxbgxb20231043
计算机科学与技术

基于相似度随机游走聚合的图节点分类算法

作者信息 +

Graph node classification algorithm based on similarity random walk aggregation

Author information +
文章历史 +
PDF (604K)

摘要

针对异质图节点分类任务中MLP、GCN等方法准确率相对较低的问题,提出了一种基于相似度随机游走聚合的图神经网络(SRW-GNN)。为降低异质性对节点嵌入的影响,SRW-GNN利用节点间的相似度作为概率进行随机游走,并将采样路径作为邻域以获取更多同质信息。为解决大多数现有GNN聚合器对节点顺序不敏感的问题,本文引入基于循环神经网络(RNN)的路径聚合器来同时提取路径中节点的特征和顺序信息。此外,节点对不同路径有不同的偏好,为了自适应地学习不同路径在节点编码中的重要性,采用注意力机制动态地调整各路径对最终嵌入的贡献。在多个常用的异质图数据集的实验结果表明,本文方法的准确率明显优于MLP、GCN、H2GCN、HOG-GCN等方法,验证了其在异质图节点分类任务中的有效性。

Abstract

In addressing the issue of relatively low accuracy in node classification tasks on heterophily graphs using methods such as MLP and GCN, a Graph Neural Network based on Similarity Random Walk Aggregation (SRW-GNN) was proposed. To address the impact of heterophily on node embeddings, SRW-GNN employs the similarity between nodes as probabilities for conducting random walks. The sampled paths serve as the neighborhood, enabling the model to gather more homophily-based information. To address the issue of insensitivity to node order in most existing graph neural network (GNN) aggregators, a path aggregator based on recurrent neural networks (RNNs) was introduced to simultaneously extract features and order information of each node in the path. Furthermore, nodes exhibit varying preferences for different paths. To adaptively learn the importance of different paths in node encoding, an attention mechanism was employed to dynamically adjust the contributions of each path to the final embedding. Experimental results on several commonly used heterophily graph datasets demonstrate that the proposed SRW-GNN method achieves significantly higher accuracy compared to the methods such as MLP, GCN, H2GCN, HOG-GCN, validating its effectiveness in heterophily graph node classification tasks.

Graphical abstract

关键词

计算机应用技术 / 图神经网络 / 异质图 / 节点分类

Key words

computer application technology / graph neural network / heterophily graph / node classification

引用本文

引用格式 ▾
车翔玖,孙雨鹏. 基于相似度随机游走聚合的图节点分类算法[J]. 吉林大学学报(工学版), 2025, 55(06): 2069-2075 DOI:10.13229/j.cnki.jdxbgxb20231043

登录浏览全文

4963

注册一个新账户 忘记密码

0 引 言

图作为现实中常见的数据结构,被广泛应用于诸多任务,包括社交网络、推荐系统等领域。图是一种非欧几何空间中的数据结构1,不要求所有节点之间都有边连接,因此无法直接将处理图像的卷积神经网络(Convolutional neural network,CNN)2应用在图结构中。

为了更有效地处理图数据结构,Gilmer等3提出了信息传递神经网络(Message passing neural network,MPNN)。MPNN可以将节点与它们邻居之间的信息传递和聚合,充分利用了图的拓扑结构,已经被广泛应用于节点分类、图分类和链路预测等与图数据相关的任务中。

MPNN是依托于同质性假设的图卷积网络(Graph convolutional network,GCN)4,同质性是指大多数连接的节点来自同一类别,并且具有相似的属性。在具有强同质性的网络上,GCN及其变体GraphSAGE5、GAT6表现出卓越的性能。

由于图卷积网络(GCN)的信息传播机制是基于同质性假设,并未针对异质性网络进行设计,而异质图中多数连接的节点来自不同类别具有不相似的属性,GCN可能会将不同类别的信息混合在一起,导致性能受到较大影响。

为了解决同质性限制,有些方法通过调整不同标签邻居之间的注意力权重改善信息聚合,如CPGNN7、HOG-GCN8、BM-GCN9将邻域中具有相同标签的节点聚合在一起,降低不同标签邻域的聚合程度,以此聚合更多同质性信息,减少异质信息的干扰。然而,此类方法用于半监督学习,标签是预测值,无法准确判断哪些节点具有同种标签。

GGCN10、GNN-LF/HF11将注意力权重从0,1扩展到-1,1,对相同类别节点分配正值以提高同种类别间的信息传递,对不同类别节点分配负值以抑制不同类别间的信息传递。这种设计仅对类别数接近2的网络有效,对类别数较多的网络效果不佳。

还有一些方法,如Geom-GCN12、H2GCN13和GPR-GNN14,显式聚合高阶邻域节点信息。这些方法假设直接相邻的邻域节点在异质网络中可能以异质性为主导,而高阶邻域节点更有可能以同质性为主导,因此能够为目标节点提供更有价值的信息。然而,聚合过程中的求和算子仍然隐含着同质性假设,并未彻底改变GCN的基本聚合机制。

为了解决这一问题,RAW-GNN15引入了一种新的聚合机制,将随机游走的路径作为邻域进行聚合,通过广度优先和深度优先进行游走分别获取节点附近和更深感受野的信息。然而该类方法同样假设异质网络中目标节点附近的邻域可能以异质性为主导,而高阶邻域更有可能以同质性为主导,没有充分考虑图的异质性,只考虑图的结构性,忽略了节点的特征信息。

针对以上问题,为了更灵活地处理异质图数据,本文提出了基于相似度随机游走聚合的图神经网络,简称SRW-GNN。不同于以上方法,该方法充分利用了图的结构信息以及图中节点的特征信息,进而提高了异质图中节点分类的准确率。

1 相关工作

1.1 符号表示

本文将一个无向无权有特征的图网络表示为G=V,E,X,其中V=v1,v2,,vnn个节点的集合,n为图中节点数,XRn×f为节点特征的集合,f为特征维数。E=eijV×V为边的集合,由邻接矩阵A=aijRn×n表示,其中如果节点vivj相连,则aij=1,否则aij=0

本文关注节点分类任务。具体来说,每个节点都属于一个类cCC为所有种类的集合,C为类的数量,给定训练集TV中具有已知标签yv和特征向量xv的节点vV,目标是推断出所有v'V-TV中的未知标签yv'

1.2 MPNN基本原理

从严格意义上讲,MPNN不是一种具体的模型,而是一种空域卷积的形式化框架。它将空域卷积分解为两个过程:消息传递和状态更新。

在MPNN的每一轮迭代中,每个节点都将自己的特征作为信息传递给其邻居节点,然后将来自邻居节点的信息进行聚合,以更新自身的表示。这个过程可以被视为信息在图中的传播,节点通过与其连接的其他节点交换信息,并不断更新自身的特征表示,继而完成节点分类、图分类等下游任务。

在MPNN中,邻域被定义为相距一跳或多跳的邻居节点。MPNN的第l层定义如下:

mil=aggregatelgil-1:iNigil=combinelgil-1,mil

式中:gil为第l层中节点i的特征向量;aggregatel消息传递操作;combinel为状态更新操作。

初始向量gi0xi,而Ni为节点i的邻居节点集合。不同的Ni,aggregatel,combinel的选择就意味着不同的模型。通常,节点i的邻居节点要么是i的相邻节点,要么是ik跳邻居节点。

1.3 异质图

在早期图神经网络模型中,关注较多的是同质图网络,如GCN、GraphSAGE、GAT等都在同质图上表现出较好的效果。这里的同质性指的是属于相同类别并且拥有相似属性的节点间更倾向于建立连接。

然而,现实世界中存在许多网络,它们不满足同质性假设。相反,这些网络通常表现出异质性或低同质性的特点,其中大多数相连接的节点可能属于不同的类别,并具有不相似的属性。

例如,在社交网络中,一个用户可能不仅与相似的用户相连接,还会与不同年龄、兴趣和职业的其他用户交流;在学术合作网络中,一位科学家可能不仅与同一领域的研究者连接,还会与不同领域的合作伙伴进行合作;在电信通信网络中,不同类型的设备(如手机、计算机、路由器)也可能相互连接,而这些设备具有不同的通信协议和特性。

1.4 基于路径的邻域

基于路径的邻域已经在异构图16中得到了应用。对其进行引申修改就可以用于异质图。具体而言,一个路径P的定义采用有序列表的形式,P=v1,v2,,vK为长度为K的路径,其中vkV,k=1,2,,K,并且路径上相邻的节点之间存在边。节点i基于路径的邻居被表示为Pi,多条以节点i为起点游走的路径就构成了节点i基于路径的邻域。

1.5 聚合后节点相似度

对于如何衡量图的同质性,已经存在许多不同的指标。通常,指标的数值越高表示同质性越强,而数值越低表示异质性越强。然而,Luan等17指出,现有的同质性度量公式在某些情况下可能会产生误导,根据之前的度量方法,如边同质性比率12图1毋庸置疑是一个异质图,具有较强的异质性,相连接的节点都属于不同的类别,然而在均值聚合后类A和类B只是交换了颜色,不同类别的节点并没有变得不可区分。为了更好地衡量图的异质性,文献[17]提出了聚合后相似度,并定义了聚合后节点相似度矩阵:

S=AXAXTRn×n

式中:ARn×n为一个常规的聚合器,本文直接使用邻接矩阵,也就是聚合节点的一阶邻居。

2 本文方法

2.1 总体框架

为了突破同质性假设的限制,提升异质图节点的分类性能,本文提出了一种新的节点分类方法,包括以下主要组件:基于相似度随机游走生成器、基于RNN的路径聚合器、基于注意力机制的节点编码器以及节点分类器。本文模型示意图如图2所示。

在图神经网络中,通常通过邻域聚合来为目标节点获取有用信息。GCN通常将邻居节点作为邻域,然而,异质图中目标节点的邻居节点通常属于与目标节点不同的类别或拥有不相似的属性。一阶邻域通常具有强异质性,计算目标节点嵌入时会聚合太多异质性信息导致节点分类准确率较低,即便是直接聚合高阶邻域,也会忽略一些同样重要的低阶邻域节点信息,而高阶邻域中同样存在异质信息干扰节点嵌入。于是本文并未采用直接邻居或者高阶邻居节点作为邻域,而是选择路径作为邻域,不局限于目标节点的某阶邻居,路径能记录节点的顺序信息,凭借采样距离获取到更多信息。

一个直接的获取路径的方法是枚举每个节点的所有路径,但在感受野范围内的路径数量呈指数级增长,特别是当中心节点被遍历时。因此,使用所有路径进行计算是不切实际的,尤其是在感受野较大,即采样距离较长时。

为了在搜索空间中以更少的路径获得更多信息,最简单的方法之一是采用随机游走算法。然而,随机游走算法只能通过深度优先搜索或者广度优先搜索来随机采样路径,只考虑了图的结构信息而忽略了节点的特征信息。因此,面临的首要问题是如何进行随机游走,在计算开销可控的情况下更好地获取图中的同质性信息。于是本文设计了基于相似度的随机游走生成器,根据节点间相似度确定下一跳节点,使节点在游走时更有可能跳转到属于相同类别、具有相似特征的节点,也就可以获取到更多的同质性信息。

采样路径之后面临的问题是如何对路径进行编码。在路径中,节点出现的顺序对捕获邻域内的结构信息尤为关键。然而,大多数现有的GNN聚合器对节点顺序不敏感,仅对节点的特征信息进行聚合,而不考虑路径中节点的顺序信息。为了有效地聚合路径信息,本文提出了一种基于循环神经网络(Recurrent neural network,RNN)的路径聚合器。这个聚合器用于处理由一个个节点组成的路径序列,能够充分考虑路径节点的顺序信息和特征信息。

现在,模型已经获取了每个节点通过随机游走生成的路径嵌入。多数现有的方法采用均值聚合或者求和聚合计算目标节点的嵌入,然而这会忽略路径间的差异,考虑到节点对不同路径具有不同偏好,本文引入了注意力机制。该机制能够自适应地学习邻域中不同路径在节点嵌入中的重要性,允许模型动态地调整不同路径对最终嵌入的贡献,以更好地适应任务的需求。得到节点的最终嵌入后,使用一个常规的分类器对节点进行分类。

2.2 基于相似度的随机游走生成器

为了在计算开销可控的同时更好地获取图中的同质性信息,本文提出了基于相似度的随机游走生成器,并以此采样路径。

根据图中节点的特征和边的连接关系计算相似度矩阵SRN×N,其中每一行表示每个节点与其他节点之间的相似度。采用基于相似度的随机游走算法计算有边连接的节点间的相似度,并作为游走概率,以此进行随机选择以确定路径的下一跳节点,从而生成一系列路径,这些路径有助于获取更多同质性信息。

考虑一个长度为K的采样路径,从节点vi到节点vj,路径的生成概率可以表示为:

ProijK=sii1si1i2siK-2iK-1siK-1iK

式中:sij为相似度矩阵中的一个元素,表示节点vivj之间的相似度。

本文采用聚合后的相似度作为随机游走方法的度量。当两个节点的相似度高时,这意味着它们在邻域聚合后具有更相似的特征。这种相似度不仅考虑了节点自身的特征,还考虑了节点一阶邻居的特征。这使得在游走时更有可能跳转到属于相同类别的节点,从而有望提取更多同质性信息,并减少异质性对任务的影响。

2.3 基于RNN的路径聚合器

该聚合器的目的是对路径进行编码,对于给定的一条路径Pi,路径聚合器旨在学习路径上所有节点的结构和语义信息。这不仅包括路径的起点节点和终点节点,还包括路径中间的所有上下文节点。路径聚合器的任务是保留路径上节点之间的有序连接,同时考虑节点特征,以捕获更多的信息对路径进行编码。

具体而言,路径聚合器Path:RK×fRdl的定义为:

hP=PathP=fθxn1,xn2,,xnK

式中:hPRdl为路径P=vn1,vn2,,vnK的嵌入向量,其中,dl为径聚合器的输出维度;PathP表示将路径P输入到路径聚合器中,从而得到路径表示;xnkRfk=1,2,;K为节点vnk的初始特征;θ为聚合器的所有可学习参数。

为了对路径进行编码,可以使用任何考虑元素顺序的编码器,例如循环神经网络(RNN)中的长短期记忆神经网络(Long short term memory,LSTM)18、门控循环单元(Gate recurrent unit,GRU)19等,本文使用了门控循环单元。

考虑到目标节点的特征对最终嵌入影响比较大,在将随机游走产生的路径序列输入路径聚合器之前进行翻转,让目标节点最后进入聚合器,以保留更多目标节点的初始特征。

2.4 基于注意力机制的节点编码器

考虑到不同的路径可能对目标节点嵌入的贡献不同,本文引入了一种类似GAT中的注意力机制,用于学习节点i的路径邻域Ni中每个路径嵌入的不同权重,Ni中包含节点i基于路径的邻域中所有路径的嵌入。具体实现如下:

eP=LeakyReLUuPThPαP=expePYNiexpeYoi=σPNiαPhP

式中:uPRdl为可学习的参数;ePeY为分别路径PY的非标准化注意力权重;hP为路径P的表示;LeakyReLU(·)为激活函数;oi为节点i的最终表示;αP为通过softmax对Ni中所有路径进行归一化的路径权重。

在计算节点嵌入的时候不再考虑目标节点本身的特征xi,因为Ni中的每条路径都已经包含了xi作为其结束节点的特征。为了进一步稳定学习过程,采用了多头注意力机制,在式(5)中使用了H个注意力头,然后将它们的嵌入拼接在一起,形式化如下:

oi=h=1HσPNiαPhhP

式中:“‖”代表向量拼接操作。

2.5 节点分类器

本文关注的是节点分类任务,采用常用的交叉熵作为损失函数,使用一个线性层和softmax层计算预测的标签概率:

y^i=softmaxWoi+b

式中:W为可学习的权重矩阵;b为偏移项;y^i中每个元素值代表节点属于对应类别的预测概率,其中对应值最大的元素的下标为最终预测的标签,y^iRC

3 实验结果及分析

3.1 数据集

为了展示SRW-GNN对异质图节点分类的效果,在3个公开的异质网络数据集上评估SRW-GNN和现有最先进方法的性能。这些数据集的特征如表1所示。表1中,Cornell、Texas和Wisconsin是从相应大学计算机科学系收集的网页数据集12,其中节点代表网页,边代表超链接关系,节点特征是网页的词袋表示,节点标签是网页的类别(学生、项目、课程、工作人员和教职员工)。

3.2 基线方法

将本文提出的SRW-GNN方法与以下基线方法进行比较:仅使用节点特征信息的多层感知机(Multilayer perceptron,MLP);基于同质性假设的GNN模型,如GCN3、GAT6、GraphSAGE4;针对异质图的模型,如H2GCN13、CPGNN7、GPR-GNN14、BM-GCN9、HOG-GCN8、RAW-GNN15。某些方法有多个变种,选择每种方法的最佳结果进行比较。

3.3 超参数设置

为了保证公平性,本文采用了与HOG-GCN8相同的数据集划分方法,对所有数据集生成10个随机划分。在每个数据集中,48%的节点用作训练集,32%的节点用作验证集,其余用作测试集。所有基线方法的参数都设置为其作者使用值。对于SRW-GNN,使用的采样路径长度为4,每个节点采样了12条路径。对于基于循环神经网络(RNN)的聚合器,使用128个隐藏单元的GRU,并将注意力头数设置为2。采用了Adam优化器和PyTorch的默认初始化方式,学习率设置为0.05。将测试集中节点分类正确率作为准确率以比较不同模型的节点分类精度。

3.4 实验结果及分析

在3个公开数据集上进行实验,比较不同模型在节点分类任务上的性能,结果如表2所示。由表2可以看出:本文SRW-GNN方法的效果较基于同质性假设的图神经网络有明显提升,与现有的针对异质图设计的模型相比,准确率也有一定提升。实验结果证明了本文方法在异质图上的有效性。

本文SRW-GNN方法的主要优点是:首先,利用相似度进行随机游走采样,且计算相似度时不仅考虑了节点自身的特征,还考虑了节点一阶邻居的特征,使得路径邻域拥有更多的同质性信息。其次,使用循环神经网络对路径进行编码,同时考虑了路径中节点的顺序信息和特征信息。最后,每个节点使用注意力机制学习到更适合的路径权重,以得到最终的节点嵌入。

由于异质图的公开数据集目前还都比较小,本文也只验证了在Cornell、Texas和Wisconsin上的表现效果,下一步会考虑在更大的数据集上进行验证。

3.5 消融实验

为了验证本文所提出模块的有效性,本文进行了一系列消融实验,对使用的各个模块进行替换。实验包括采用节点间的余弦相似度代替本文所提出的聚合后相似度(COS-SRW);将路径中节点特征拼接后使用多层感知机MLP代替本文的路径聚合器(SRW-MLP);对所有路径嵌入进行均值聚合代替基于注意力机制的节点编码器(SRW-MEAN)。

相关消融实验结果如表2所示,COS-SRW仅考虑节点间特征余弦相似度,未充分考虑邻居特征,导致性能略微下降;SRW-MLP没有考虑路径中每个节点的顺序,没有充分利用路径邻域的优势,性能显著下降;SRW-MEAN没有考虑不同节点对路径的偏好,导致性能稍有下降。实验结果充分说明了本文所提出模块的有效性。

4 结束语

本文针对异质网络提出了一种基于相似度随机游走的图神经网络,用于提高异质图节点分类任务的准确率。该方法首先基于聚合后相似度对全图进行随机游走,计算相似度时不仅考虑了目标节点特征,还考虑了其一阶邻居的特征。其次,将产生的路径输入基于RNN的路径聚合器得到路径嵌入,充分考虑了路径中每个节点的顺序和特征。最后,使用注意力机制自适应学习节点对不同路径的偏好,得到节点的嵌入。模型在3个公开数据集上进行了实验,与MLP、GCN以及现有的针对异质图的模型(如H2GCN)进行了比较。结果表明,本文模型对异质图节点分类任务有更高的准确率。

参考文献

[1]

徐冰冰, 岑科廷, 黄俊杰, 图卷积神经网络综述[J].计算机学报, 2020, 43(5): 755-780.

[2]

Xu Bing-bing, Cen Ke-yan, Huang Jun-jie, et al. A survey on graph convolutional neural network[J]. Chinese Journal of Computers, 2020, 43(5): 755-780.

[3]

LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

[4]

Gilmer J, Schoenholz S S, Riley P F, et al. Neural message passing for quantum chemistry[C]∥Proceedings of the International Conference on Machine Learning, Sydney, Australia, 2017: 1263-1272.

[5]

Kipf T N, Welling M. Semi-supervised classification with graph convolutional networks[J/OL]. [2023-08-11].

[6]

Hamilton W L, Ying R, Leskovec J. Inductive representation learning on large graphs[J/OL]. [2023-08-11].

[7]

Veličković P, Cucurull G, Casanova A, et al. Graph attention networks[J]. Stat, 2017, 1050(20): No.48550.

[8]

Zhu J, Rossi R A, Rao A, et al. Graph neural networks with heterophily[J]. AAAI Technical Track on Machine Learning V, 2021, 35(12): 11168-11176.

[9]

Wang T, Jin D, Wang R, et al. Powerful graph convolutional networks with adaptive propagation mechanism for homophily and heterophily[C]∥Proceedings of the AAAI Conference on Artificial Intelligence, Philadelphia, USA, 2022, 36(4): 4210-4218.

[10]

He D, Liang C, Liu H, et al. Block modeling-guided graph convolutional neural networks[C]∥Proceedings of the AAAI Conference on Artificial Intelligence, Philadelphia, USA, 2022: 4022-4029.

[11]

Yan Y, Hashemi M, Swersky K, et al. Two sides of the same coin: heterophily and oversmoothing in graph convolutional neural networks[C]∥2022 IEEE International Conference on Data Mining (ICDM), Chennai, India,2022: 1287-1292.

[12]

Zhu M, Wang X, Shi C, et al. Interpreting and unifying graph neural networks with an optimization framework[C]∥Proceedings of the Web Conference, New York, NY, USA, 2021: 1215-1226.

[13]

Pei H, Wei B, Chang K C C, et al. Geom-GCN: geometric graph convolutional networks[J/OL]. [2023-08-11].

[14]

Zhu J, Yan Y, Zhao L, et al. Beyond homophily in graph neural networks: current limitations and effective designs[C]∥Advances in Neural Information Processing Systems, Long Beach, USA,2020, 33: 7793-7804.

[15]

Chien E, Peng J, Li P, et al. Adaptive universal generalized pagerank graph neural network[J/OL]. [2023-08-11].

[16]

Jin D, Wang R, Ge M, et al. Raw-gnn: random walk aggregation based graph neural network[C]∥Proceedings of the 31st International Joint Conference on Artificial Intelligence,Shenzhen, China, 2022: 2108-2114.

[17]

Fu X Y, Zhang J N, Meng Z Q, et al. Magnn: metapath aggregated graph neural network for heterogeneous graph embedding[C]∥Proceedings of the Web Conference, Taipei, China, 2020: 2331-2341.

[18]

Luan S, Hua C, Lu Q, et al. Revisiting heterophily for graph neural networks[J]. Advances in Neural Information Processing Systems, 2022, 35: 1362-1375.

[19]

Hochreiter S, Schmidhuber J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.

[20]

Chung J, Gulcehre C, Cho K H, et al. Empirical evaluation of gated recurrent neural networks on sequence modeling[J/OL].[2023-08-11].

基金资助

国家自然科学基金项目(62172184)

吉林省科技发展计划项目(20200401077GX)

吉林省科技发展计划项目(20200201292JC)

AI Summary AI Mindmap
PDF (591KB)

279

访问

0

被引

详细

导航
相关文章

AI思维导图

/