基于上下文结构感知的选择性图卷积网络

李芳晨 ,  张静晓 ,  丁世飞

南京大学学报(自然科学) ›› 2026, Vol. 62 ›› Issue (01) : 97 -109.

PDF (867KB)
南京大学学报(自然科学) ›› 2026, Vol. 62 ›› Issue (01) : 97 -109. DOI: 10.13232/j.cnki.jnju.2026.01.009

基于上下文结构感知的选择性图卷积网络

作者信息 +

Selective graph convolution network with contextual structure⁃awareness

Author information +
文章历史 +
PDF (887K)

摘要

图神经网络的核心同质性假设相连节点标签可能更相似,但在异质性场景(相连节点标签通常不相似)中,这一假设成了关键的局限,因为传统邻域聚合机制会明显拉低模型性能.目前,采用高阶邻域或重加权方案的改进思路不仅会引入大量来自不相似节点的结构噪声,还因为对局部子图变化区分不足,无法捕捉细微的上下文结构模式.为了解决这些相互交织的问题,提出了全新的框架——基于上下文结构感知的选择性图卷积神经网络(SGC⁃CSA),利用集成化设计同时建模上下文结构与实现自适应选择性传播,前者以群体公平性约束指导自我网络分区,提取领域不变模式并避免上下文盲区,后者通过邻域分布计算相似性度量,以门控机制控制属性拓扑对齐推断的同质性候选节点、直接邻居及核心节点自身特征的融合比例.该框架能让节点动态过滤无关信息,确保不同异质性场景下的结构连贯性.在10个真实世界网络数据集上的测试结果证实,该框架成功地缓解了聚集偏差与结构分布偏移问题.

Abstract

The core homophily assumption of Graph Neural Network (GNN) holds that connected nodes are more likely to have similar labels. However,in heterophilic settings (where connected nodes usually have dissimilar labels),this assumption becomes a critical limitation,and the conventional neighborhood aggregation mechanism significantly degrades model performance. Current improvement approaches that adopt higher⁃order neighborhoods or reweighting schemes not only introduce a large amount of structural noise from dissimilar nodes but also fail to capture subtle contextual structural patterns due to insufficient ability to distinguish local subgraph variations. To solve these intertwined problems,we propose a new framework called Selective Graph Convolution Network with Contextual Structure Awareness (SGC⁃CSA). It models structural context and achieves adaptive selective propagation simultaneously through integrated design. The former guides ego network partitioning with group fairness constraints to extract domain invariant patterns and avoid contextual blindness,while the latter calculates similarity measures through neighborhood distribution and uses a gating mechanism to control the fusion ratio of homophilic candidate nodes inferred from attribute topology alignment,direct neighbors and the features of the core node itself. This framework enables nodes to dynamically filter irrelevant information and ensures structural coherence in scenarios with different levels of homophily and heterophily. Tests on ten real⁃world network datasets confirm that it successfully mitigates the problems of aggregation bias and structural distribution shift.

Graphical abstract

关键词

图神经网络 / 节点分类 / 信息传递 / 图卷积网络

Key words

graph neural network / node classification / information transmission / graph convolution network

引用本文

引用格式 ▾
李芳晨,张静晓,丁世飞. 基于上下文结构感知的选择性图卷积网络[J]. 南京大学学报(自然科学), 2026, 62(01): 97-109 DOI:10.13232/j.cnki.jnju.2026.01.009

登录浏览全文

4963

注册一个新账户 忘记密码

图结构广泛存在于各类现实场景中,无论是社交网络中的用户关联、生物领域的蛋白质相互作用网络,还是交通系统中的路线连接关系等,图结构都是对这些复杂关联数据进行建模的强大且灵活的工具1.作为图表示学习领域内的一种主流且广泛应用的方法,图神经网络(Graph Neural Network,GNN)凭借其对图结构数据的有效处理能力,已成为该领域的研究热点.近年来,GNN受到的关注持续增加,这主要得益于其强大的图结构数据表征能力,使其能够广泛应用于各类现实场景.这些应用场景丰富多样,包括但不限于节点分类2(如对社交网络中用户兴趣类别的划分)、图分类3(如对不同分子结构的类型判定)和链路预测4(如对社交网络中潜在好友关系的推测).通过将深度学习中的卷积架构与图信号处理原理相结合,开发了多种图卷积网络(Graph Convolution Network,GCN)框架,这些框架在上述提及的各个应用领域中均展现了优异的性能,为图结构数据的分析与应用提供了有力支持.
近期诸多研究表明,GCN及其各类变体能够在众多任务中取得成功,从根本上依赖其同质性假设5,该假设明确认为图结构中相互连接的节点具有相同的类别标签6.这一假设为GNN提供了关键的归纳偏置,能够有效增强通用的消息传递机制,而该消息传递机制的核心过程是通过聚合邻居节点的信息来更新当前节点的表示,这一过程在学术界被广泛认为是一种特殊形式的低通滤波7,能过滤掉图中的噪声信息,保留有效特征.大多数主流的GNN变体,例如经典的GCN、引入注意力机制的GAT8、采用跳跃连接的JKNet9、基于路径卷积的PCNet10和基于图概率回归的GPR⁃GNN11,均采用了这种消息传递架构,通过聚合邻域信息的方式来学习紧凑且有效的节点嵌入,为后续的各类任务提供高质量的特征支持.
然而,同质性假设并非在所有现实场景中都能成立12,在不满足同质性假设的场景下,模型可能会出现严重的性能退化.当图中相连节点多为不同类时,传统GNN的邻域聚合机制会无差别地引入异类节点的干扰信息,使节点表示被污染,导致性能退化.越来越多的实证表明,严重情况下GNN的性能甚至可能不如仅以节点特征为输入的简单多层感知机(Multilayer Perceptron,MLP)13,这种GNN在异质性场景下性能不佳的现象被学术界广泛称为异质性问题.造成这一不良结果的潜在原因是,低通滤波作为GCN框架的固有组成部分,在应用于异质性图时会无差别聚合邻居节点信息,对模型性能产生不利的影响.事实上,对现实世界中各类图结构的深入研究发现,它们往往表现出显著的异质性特征,即图中相互连接的节点通常属于不同类别.例如,在论文引用网络中,一篇计算机领域的论文可能会引用一篇数学领域的论文.受这一固有属性的直接影响,GNN及其多个知名变体(如简化版图卷积网络SGC14和注意力图卷积网络GAT)在处理这类异质性网络时,可能会产生远不能令人满意的分类结果,其根本原因在于不同类别节点之间的消息传播与聚合过程会使当前节点接触过多与自身类别无关的信息,这些无关信息会干扰节点自身有效特征的学习,进而降低最终的分类准确率.
为了应对异质性图带来的挑战,现有方法通常融入多跳邻居表示以纳入更多同类节点,以此适配异质性图的特性并规避结构噪声.这类噪声具体表现为高阶邻域扩展过程中引入的、与目标节点类别不一致且无法反映真实结构关联的冗余信息,会随着多跳传播的累积效应不断放大,最终破坏节点表示的判别性.例如,部分基于谱域的方法(如近似个性化传播的图神经网络APPNP15、改进版图卷积网络GCNII16)采用多层堆叠的网络结构,将多跳邻居纳入节点的邻域范围,有效扩大了节点的邻域规模,增加了获取同类节点信息的概率.此外,这些方法还巧妙地利用初始连接机制、残差连接策略或线性化技术,将来自网络不同层的节点表示进行整合,以充分利用各层学习到的特征信息.同时,一些基于空间域的方法也通过聚合多跳邻居的表示来丰富邻域节点信息,例如混合跳数的图神经网络MixHop17、双层图卷积网络H2GCN18和基于跳数感知的图神经网络HopGNN19,它们充分利用一阶邻居(直接相连的节点)和高阶邻居(间接相连的节点)的信息来改进整个学习过程,试图在异质性场景下提升模型性能.另外,还有部分方法从图层面出发寻求性能提升,将研究重点放在跨图的迁移学习上.例如,近期的相关研究聚焦于增强GNN在迁移学习场景中的适用性.具体地,领域自适应节点嵌入方法DANE20基于从网络最后一层提取的节点表示,对领域分类器采用对抗训练策略,以减少不同领域间的分布差异;无监督领域自适应图卷积网络UDAGCN21在这类对抗训练框架的基础上,进一步引入图间注意力机制,通过关注不同图之间的重要信息来提升迁移学习性能.然而,这些方法仍存在明显不足,它们没有充分考虑高阶邻居引入的噪声信息,也没有针对性地对不同节点的属性特征进行建模,还低估了现实世界数据固有的复杂性,所以在处理复杂异质性图时性能仍有提升空间.
不仅不同网络在整体的同质性程度上存在差异,而且单个网络内部不同区域的结构模式也存在显著不同21-22,这种网络内部结构的差异性进一步增加了GNN建模的难度.在此背景下,本文提出一种全新的GNN框架——基于上下文结构感知的选择性图卷积网络(Selective Graph Convolution Network with Contextual Structure⁃Awareness,SGC⁃CSA).具体地,首先为图中的每个节点采用自我网络构建模块来生成对应的子图,这些子图能够精准捕捉各类局部结构信息,而此类局部结构信息对于图中结构知识的有效传递至关重要,是后续节点表示学习的基础.在此基础上,通过计算节点邻域的相似度,进一步获取图的高阶邻域信息与潜在的相似邻居,扩大有效信息的获取范围.接下来,为了对不同节点的属性特征进行针对性建模,设计了一种有效的多通道选择性融合机制,能够根据节点的具体情况,实现多维度信息的高效整合,确保有用信息被充分利用.最后,通过引入组件损失机制,对划分出的各个子图进行平衡处理,避免因部分子图信息占比过高而影响整体模型性能.为了验证SGC⁃CSA的有效性与优越性,在10个具有不同属性的真实世界数据集上开展了大量实验,实验结果充分证明了该框架的优势.
综上,本研究的核心贡献如下.
(1)通过将整个图划分为多个子图的方式,有效提升了模型对图中信息的表达能力,确保在高度复杂的图结构场景下,模型也能充分捕捉来自邻居节点的充足信息,为节点表示学习提供丰富的特征支撑.
(2)设计的多通道选择性融合机制与组件平衡损失能够同时对图中的同质性区域与异质性区域进行有效建模,使每个节点都可以根据自身所处的环境选择性地接收相关邻居的信息,有效过滤无关噪声,获得更优的节点表示.
(3)在10个具有不同属性的数据集上开展了大量实验,这些数据集涵盖了不同类型的图结构与应用场景,实验结果从多个角度凸显了SGC⁃CSA相较于现有方法的优越性能,验证了该框架的通用性与有效性.

1 相关工作

1.1 GNN

GNN的发展可追溯至早期的开创性研究,Defferrard et al23创新性地将卷积神经网络从图像、语音等规则网格结构数据扩展到图、网络等不规则网格结构数据,成功将卷积神经网络操作从规则网格数据推广到了非欧几里得图数据,这一研究突破了传统卷积操作仅适用于规则数据的局限.之后,GCN凭借其简洁高效的结构设计,迅速成为广泛应用的GNN模型,它通过堆叠多层图卷积层的方式,逐步整合来自高阶邻域(即间接相连节点)的特征信息,学习到具有更强表达能力的节点嵌入,为节点分类、链路预测等任务提供关键特征支撑.进一步,GraphSAGE6在GCN的基础上进行了重要改进,将邻域聚合操作的范围从简单的平均聚合扩展到更丰富的聚合方式(如求和、最大池化等),并在其子采样邻域策略下,将核心节点自身的特征与邻居节点的特征进行单独显式建模,有效解决了大规模图数据训练时计算资源消耗过大的问题.此外,图注意力网络8引入节点级别的多头注意力机制,能够根据节点间特征的相关性,为来自不同邻域的信息自动分配特定权重(即注意力分数),进而显著增强模型对任务相关节点的关注能力,减少无关节点信息对模型性能的干扰.

随着研究的不断深入,众多研究团队致力于开发更深层的网络架构24-25与更具可扩展性的训练框架26-27,以应对图学习领域中大规模图数据处理、长程依赖捕捉等各类核心挑战.例如,深层架构通过引入残差连接、归一化等技术,缓解了GNN深层训练时的梯度消失问题;可扩展性框架通过节点采样、子图划分等策略,降低了模型在大规模图上的训练时间与内存消耗.此外,在GCN奠定的邻域聚合框架基础上,一系列基于注意力的改进方法28-29被设计出来,它们能够在消息传递过程中动态学习图中边的权重(也称注意力分数),将注意力机制有效融入传统的邻域聚合过程,使模型能够更灵活地分辨邻域节点的重要性.尽管受限于邻域聚合的核心机制,GCN的聚合层数通常有限,在捕捉图中长程依赖关系方面存在固有局限,但上述技术仍使其在各类涉及图结构数据的现实任务中展现出优异性能,成为当前图表示学习领域的主流技术方向.

1.2 同质性和异质性

大多数GNN在同质性假设的基础上运行,即在图结构中,属于同一类别的节点相互连接的可能性会显著更高,这一假设也是传统GNN邻域聚合机制的核心理论依据.然而,异质性是各类现实图场景中普遍存在的属性,在这类场景中,具有不同标签(即不同类别)的节点往往会相互连接,形成大量跨类别边.这种异质性特征成为GNN应用的显著约束,会极大限制那些专门为同质性场景设计的GNN的性能,导致模型在异质性图上分类、预测等任务的准确率大幅下降.为了应对这一核心挑战,近年来越来越多的研究团队将目光聚焦于提升GNN处理异质性图的能力,提出多种针对性改进方案.一些方法将高阶邻居纳入邻域聚合过程来扩展核心节点的邻域范围1830,期望通过扩大信息获取范围来找到更多同类节点;另一些方法则对原始图中预定义边的有效性提出质疑,认为原始边可能包含大量无关节点连接,转而基于节点表示的相似性(通过特征距离、余弦相似度等指标计算)来发现潜在的同类邻居节点31-32.此外,还专门设计了多种新的聚合函数,以在异质性图场景下更有效地区分不同类别节点的表示,减少无关节点信息对核心节点特征学习的干扰733.​

此外,还有多项独立研究从不同角度缓解同质性假设带来的限制,最终目标均是提升GCN在异质性场景下的性能.例如,Geom⁃GCN34提出一种新颖的几何聚合方案,将节点映射到几何空间并利用空间距离来度量节点相关性,解决传统GCN在异质性图中邻域结构信息丢失和长程依赖缺失的问题.GPR⁃GNN11提出一种新的架构框架,可自适应学习广义PageRank权重,通过动态调整不同阶数邻居的贡献比例来实现节点特征提取与拓扑信息捕捉的联合优化,增强模型对异质性结构的适应性.CPGNN35设计了一个具有解释性的GNN框架,引入可解释的兼容性矩阵H来建模图中不同区域存在的同质性水平,使模型能够根据局部同质性差异调整聚合策略.此外,H2GCN18整合了三个关键设计要素,分别是核心节点与邻居嵌入的分离建模、高阶邻域的纳入和中间表示的结合,三个要素共同作用,确保模型在低同质性条件下也能捕捉到有价值的节点关联信息.最近,GGCN36提出一种稳健且通用的模型,通过引入带符号的消息和学习到的度缩放系数来解决邻居节点间特征差异与度分布差异的问题,从而有效降低GCN对同质性假设的依赖.

近年来,还有部分方法尝试从给定的原始图中推导优化后的图结构,通过重构图来减少异质性带来的负面影响.例如,FGC37和GloGNN22的设计基于核心假设,即学习到的优化图结构应与原始图中固有的结构信息高度相似,避免过度偏离原始数据分布,这一目标通过定义和利用高阶关系来实现,确保重构图既保留原始有效信息,又减少异质性噪声.MCGC38采用图级对比正则化器来提升重构图的区分能力,该正则化器通过拉近同类节点在特征空间的距离、拉远异类节点距离增强图结构的同质性.与更常见的对比机制不同,MCGC选择最近邻节点作为对比学习的正样本,在简化样本构建过程的同时保证正样本的相关性.受GNN在多个领域中成功案例的启发,众多模型开始关注应用这些网络时的图质量问题39,认为原始图的结构缺陷是导致模型性能不佳的关键.这些模型要么基于节点表示计算动态边权重,赋予同类节点连接更高权重,要么将邻接矩阵与GNN的参数进行联合优化,使图结构与模型学习过程相互适配.然而,这些方法大多聚焦于同质性图的优化,忽视了异质性在现实场景中的普遍性和重要性,导致它们在直接应用于异质性图时性能欠佳,无法有效处理跨类别连接带来的干扰.

还有部分方法致力于从异质性图中直接学习出同质性子图结构,将异质性图转化为同质性图后再进行后续处理.例如,HOG⁃GCN40的设计目标是学习一个同质性子图,其中边的权重由节点在整个异质性图中属于同一类别的程度决定,权重越高表示节点间同质性越强.在后续的邻居聚合过程中,通过在传播过程中融入类别感知信息,使同质性水平较低的类内节点能够比底层的类间节点产生更大的影响,从而提升聚合特征的有效性.尽管如此,这些方法仍存在明显局限,它们严重依赖节点标签来选择同质性边,而在现实场景中节点标签往往稀缺或完全缺失,这一依赖导致它们在标签稀缺或无标签场景中的适用性受到极大限制,难以推广到更广泛的实际应用中.

2 SGC⁃CSA方法

2.1 准备工作

G=V,E为无向属性网络,其中,V表示节点集合,EV×V表示边集合,节点属性矩阵记为XR n×dn为节点数,d为属性维度).AR n×n表示邻接矩阵,对角矩阵D表示度矩阵,且满足Dii=j=1nAij,即度矩阵第i个对角元素为节点i的度数.设A˜D˜分别表示包含自环的邻接矩阵与度矩阵.具体地,A˜通过在矩阵A中添加单位矩阵I得到(即给每个节点添加自环),D˜通过在矩阵D中添加单位矩阵I得到.

Pei et al34提出一种度量方法来量化与核心节点属于同一类别的直接邻居比例.将节点的同质性具体定义为该节点所有邻居中具有相同标签的邻居所占的比例,如式(1)所示:

Hi=vjvi,vjE,yi=yjdi

其中,yi表示节点vi标签的独热编码表示,di表示节点vi的度数.图级同质性HG定义为集合V内所有节点的个体节点级同质性度量的平均值,如式(2)所示:

HG=1VviVHi

其中,HiHG的取值在0,1.具体地,当它们的取值大于等于0.5时,对应的节点或图被认定为具有同质性;反之,当它们的取值小于等于0.5时,对应的节点或图被认定为具有异质性.

2.2 模型整体框架

提出的SGC⁃CSA框架的整体架构如图1所示.首先,该框架为每个节点构建子图,并识别潜在邻居节点,此后,SGC⁃CSA通过在多通道中执行消息传递过程来提取多种邻居表示.最后,该框架通过多通道注意力机制与分区平衡损失(Partition Balanced Loss,PBL),对多维度信息进行融合.

2.3 邻居聚合

提出的方法通过集成流程使节点能够选择性地聚合相关邻域信息.首先,定义一种成对节点相似性度量方式,可同时捕捉结构关系与属性关系.其中,结构部分通过公共邻居数量量化共享连接模式,如式(3)所示:

CNu,v=NuNv

其中,Nu表示节点u的直接邻居集合,数值越大,说明节点uv在图结构上越相似,为后续提供一定的量化依据.属性部分通过余弦相似度计算邻域聚合特征之间的亲和力,如式(4)所示:

Fu,v=CosiNu,iu,

其中,Cos用于计算节点对的邻域属性余弦相似度,通过比较邻域特征的整体分布差异,刻画节点对在属性空间的亲和程度.

S=αCNu,v+1-αFu,v

这些互补的视角通过一个可学习的平衡参数进行融合,这种双重机制设计有助于增强模型对结构异质性和属性分布偏移的稳健性.为了提高计算效率,为每个节点保留相似度最高的前k条边作为潜在邻居,形成一个稀疏邻接矩阵A.

为了捕捉局部上下文结构以实现有效的知识迁移,为每个核心节点构建k跳自我网络.该子图包含k跳范围内的所有邻居,全面涵盖节点的局部上下文结构.从核心节点出发,先迭代扩展到其直接邻居,再扩展到这些邻居的邻居,持续这一扩展过程直至达到k跳.生成的子图保留了所包含节点之间的所有原始边,确保结构真实性.这种有界邻域既隔离了同质性簇或异质性桥等多样化的局部结构模式,又能捕捉距离较远但具有信息价值的邻居.不同于GraphSAGE采用固定大小的邻居采样策略(如均匀采样固定数量邻居,易丢失长尾结构信息或引入无关噪声),SGC⁃CSA的自我网络具备上下文适应性,能够根据节点自身结构与属性特征动态扩展邻域范围,精准筛选对当前节点表示学习有价值的上下文信息.通过在这些自我网络中运行,模型能动态调整聚合策略以适应每个节点独特的上下文结构,从而在不同同质性水平的领域中都能表现出稳健的性能.

在每个自我网络中,节点表示通过三条并行的信息路径进行学习.潜在邻居路径处理已识别的高相似度节点:

zpl=σDp-1/2ApDp-1/2zl-1Wpl

其中,DA的度矩阵,Wp是潜在邻居的权重矩阵.第一条邻居路径处理直接相连的节点,该路径通过对邻居的特征进行聚合,捕捉“结构⁃邻居”双相似的信息:

zfl=σD-1/2AD-1/2zl-1Wfl

其中,A为原始邻接矩阵,Wf是一阶邻居的权重矩阵.自我表示路径保留核心节点的固有特征,该路径聚焦于一阶邻居的信息聚合,保留图的原始连接结构特性:

zsl=σzl-1Wsl

其中,z0=x用于初始化节点特征,Ws是自身节点的权重矩阵,仅仅保留节点自身的属性.这种多视图配置在捕捉互补关系上下文的同时,保持了计算效率.此外,该路径直接对节点自身特征进行非线性变换,确保核心节点的固有属性信息不被邻域聚合过度干扰.

2.4 上下文结构感知

为了实现对节点局部结构上下文的精准建模,SGC⁃CSA设计了多路径聚合与多头注意力融合的上下文结构感知机制,在节点粒度上动态组合多源表示以捕捉互补性结构信息.融合机制在节点粒度上动态组合这些表示,中间表示首先被求和并压缩为全局上下文向量:

Ω(l)=zpl+zfl+zslwl=1Ni=1NΩlWw,hl

其中,Ww,hl表示第h个注意力头的特征投影矩阵.节点特定权重通过Sigmoid门控生成,将权重进行映射:

γml=Sigmoidzmlwl

为了实现多路径信息的精细化融合,对通道进行归一化处理:

βp,hl,βf,hl,βs,hl=Softmaxγp,hl,βf,hl,βs,hlWγ,hl/τ

其中,τ用于缩放对数几率,Wγ,h(l)是第h个注意力头的权重分布优化矩阵,通过确保各路径权重在单个注意力头内归一化,使节点能在三条路径间动态分配注意力资源.最后,通过聚合所有注意力头的加权结果得到节点的最终表示:

zl=h=1Hβp,hlzpl+βf,hlzfl+βs,hlzsl

其中,H为注意力头数量.多头部设计使模型能从多个视角捕捉上下文结构的互补信息,进一步提升表示的判别性.

该架构通过多头注意力机制与门控动态权重的协同作用,使每个节点能够根据其局部结构(如邻居的同异质性)和属性环境(如特征相似度分布),更全面且动态地优先处理与上下文最相关的信息源.在同质性区域,模型会自适应提升直接邻居与潜在相似邻居的注意力权重以强化类内聚合;在异质性区域,模型会降低异类邻居的干扰并增强自我表示的权重以保留自身特征.

2.5 组平衡损失

在节点分类任务中,最终输出会被输入Softmax分类器,以计算节点属于不同类别的概率,可表示为Y^=SoftmaxzL.之后,SGC⁃CSA可以通过最小化预测标签与部分真实标签之间的交叉熵损失进行训练:

Lp=i=1KwimiLGi

其中,mi=ViV表示子图i中节点数量占总节点数量的比例,wi表示该子图对应的网络权重.

组平衡损失通过惩罚高频子图对模型决策的过度影响,防止训练集中分布不均带来的偏置,保障模型在类别分布异质场景下的公平性与鲁棒性.

3 实验分析

3.1 实验设置

3.1.1 数据集

在10个具有代表性的真实世界基准数据集上,对SGC⁃CSA进行了全面且系统的评估,相关数据集的具体信息如表1所示.这些数据集涵盖了GNN研究中常见的同质性和异质性两种典型图结构,能够充分验证模型在不同结构特性图数据上的适配能力与性能表现.同质性数据集,具体使用了三个经典的引文网络数据集,分别是Cora41,Citeseer2和Pubmed42.这类数据集的核心特征是相互引用的论文节点往往属于同一研究领域,即具有相同类别标签,符合同质性假设的典型特征;还选用两个亚马逊数据集Computers和Photo,它们也都具备同质性结构特点.异质性数据集,采用两个维基百科图数据集Chameleon和Squirrel43,还纳入三个来自WebKB集合的网页图数据集,分别是Texas,Cornell和Wisconsin,这些数据集基于大学相关网页的链接关系构建,不同类型的网页节点间存在大量跨类别连接,是异质性图研究中常用的基准数据集.选择覆盖两种结构类型的多样化数据集,能够更全面地检验SGC⁃CSA在不同应用场景下的有效性与通用性.

3.1.2 对比方法

将提出的SGC⁃CSA与12种具有代表性的基线方法进行对比分析,这些方法分类如下.

(1) MLP13:一种仅依赖节点属性的前馈神经网络.

(2)经典GNN模型:包括通过类卷积邻居聚合捕捉局部图结构的GCN2、简化GCN计算的SGC14以及采用注意力机制为相邻节点特征分配自适应权重的GAT8.

(3)两类适用于异质性的GNN模型:第一类,基于谱域的方法,如GPR⁃GNN11和BernNet44;第二类,基于空间域的方法,包括MixHop17,H2GCN18,GloGNN22,HopGNN19,U⁃GCN30和NSGCN45.

3.1.3 超参数设置

所有模型在相同的轮次、随机种子和早停标准配置下进行十次评估.隐藏层维度设置为64或128.超参数搜索空间包括从0.05,0.08,0.1,0.2,0.3,0.4,0.5中选择的学习率,dropout率为0.2~0.8,步长为0.1.k值选择1,2,3,4,5,权重衰减值选择5e-4,5e-5,

5e-6,5e-7,损失权重值选择0.01,0.05,

0.1,0.2,,1.0,图分区数量选择1,2,3,,10.

对于基线模型,首先采用其原始论文中指定的默认超参数,然后对这些参数进行细致微调以获得更优性能.具体地,所有模型均使用PyTorch和PyTorch Geometric深度学习库实现,训练过程采用Adam优化器.所有实验在配备4070 GPU和13600K CPU的机器上进行.

3.2 节点分类

在10个基准数据集上评估了SGC⁃CSA与12种代表性基线方法的节点分类的平均准确率,结果如表2所示,表中黑体字表示性能最优,下划线表示性能次优.由表可见,SGC⁃CSA的性能优于大多数基线方法,其优势源于上下文结构感知与选择性聚合机制的协同作用.在Cora和Pubmed等同质性数据集上,尽管GPR⁃GNN和HopGNN等模型表现出色,SGC⁃CSA仍旧能得到具有竞争力的准确率.对于Citeseer,Photo和Computers这些具有中到高同质性的数据集,SGC⁃CSA一直得到最先进的结果,甚至超过了高级基线方法,这凸显了其在同质性环境中利用结构和基于特征的信息的稳健性.

SGC⁃CSA在传统GNN通常表现不佳的异质性数据集上展示了强大的性能,这归功于其自适应选择性传播机制对异类噪声的过滤能力.在Wisconsin,Texas和Cornell这些具有高质量节点特征但低邻域同质性的数据集上,它始终优于包括专门为异质性设计的模型在内的所有基线方法.当传统GNN因无差别聚合异类邻居信息导致表示污染时,SGC⁃CSA能通过相似性度量与门控机制,动态抑制异类节点的干扰,同时保留核心节点自身与同类节点的有效特征.对于具有挑战性的Chameleon和Squirrel数据集,其中有限的同质性和噪声特征阻碍了大多数方法,而SGC⁃CSA取得了显著的进步,它能从复杂的异质性结构中提取关键信号,与最接近的竞争对手相比也有很大的优势.

在不同的图属性上,和其他方法相比,SGC⁃CSA表现出最强的多功能性,在七个数据集上取得了最优结果,在异质性图上的表现尤为突出,即使在Pubmed等未排名第一的数据集上也具有很强的竞争力.这些结果验证了SGC⁃CSA在自适应综合结构和特征信息方面的有效性,确立了其作为节点分类的高度通用框架的地位.

3.3 图划分实验

为了验证SGC⁃CSA中图划分机制对模型稳健性的影响,分析了分区数量不同时,模型在同质性与异质性图上的性能表现,结果如图2所示.

对于异质性图,在评估的分区数量不同时,模型性能出现了轻微的波动,部分数据集虽有小幅提升或变化,但整体保持较高的稳定性.相比之下,对于同质性图,模型在所有分区数量下均表现出稳定的性能,表明其对分区策略变化的敏感度较低.这可能是因为同质性图中节点本就具有强结构关联,图划分不会显著改变其有效信息的聚合模式.这一结果说明,尽管在异质性场景下调整分区数量可能带来细微的性能差异,但SGC⁃CSA的图划分机制通过捕捉局部结构模式,在同质性环境中能保证稳健性,在异质性环境中也能有效隔离异类干扰.

3.4 子网络分析实验

在构建自我网络时,不同的跳数会影响模型性能.如图3所示,当跳数为1~5时,模型在不同数据集上的准确率呈现不同的波动趋势.在Chameleon数据集上的准确率随跳数变化仅出现轻微波动,整体保持在相近水平.在Cora数据集上的表现相对稳定,不同跳数下的准确率差异较小.相反,在Wisconsin数据集上跳数为1时表现较好,随后出现一定程度的波动.在Squirrel数据集上的准确率虽有变化,但始终维持在相对较低的水平.在Texas和Cornell数据集上,跳数不同时性能变化更明显,可能在某一特定跳数时达到较高准确率,而在其他跳数时准确率下降.总体上,跳数的选择会影响模型捕捉节点邻居信息的能力,进而影响最终准确率,而且这种影响会随着数据集特性的不同而发生变化,不存在适用于所有数据集的最优跳数.

3.5 信息贡献差异实验

为了量化SGC⁃CSA中多路径信息(潜在邻居、一阶邻居、自我表示)的贡献差异,通过消融不同信息源来评估其对节点分类性能的影响.表3展示了不同方法在节点分类任务上的平均准确率,表中黑体字表示最优的结果,下划线表示次优的结果,w/op表示移除潜在邻居信息的设置,wp,wf,ws分别对应仅使用潜在邻居、仅使用一阶邻居、仅使用自我表示的场景.移除潜在邻居信息的w/op在大多数数据集上的性能优于wp,说明仅仅依赖潜在邻居信息可能无法有效提升模型性能,潜在的邻居虽然能提供隐式结构相似性,但缺乏直接邻居的显式连接信息或自我表示的固有特征支撑时,其信息价值会被削弱,合理利用其他信息源或许更为关键.wfws在部分数据集上表现出一定性能,但整体上仍不及SGC⁃CSA和w/op,进一步证明了综合利用多类信息源对提升节点分类性能的重要性.

3.6 消融实验

为了验证SGC⁃CSA中各核心组件的必要性与协同作用,通过消融不同组件来构建模型变体,实验结果如表4所示,表中黑体字表示最优的结果,w/oattention表示没有使用多头注意力机制的模型变体,wparts对应没有进行图分区的版本,wego指没有构建自我网络的设置.由表可见,完整的SGC⁃CSA模型在所有数据集上均取得最佳性能,准确率显著高于每个消融变体.这表明模型的三个关键组件(分区平衡损失、图分区和自我网络构建)均对整体性能有贡献,移除其中任意一个组件都会导致不同程度的性能下降.尽管每个组件的影响在不同数据集上存在差异,但这三个组件的协同作用通常是SGC⁃CSA实现优异性能的重要原因,它们在三个维度上互补,最终使模型在同质性或异质性场景下均能稳定输出优质的节点表示.

4 结论

本文提出一种新颖的SGC⁃CSA,该网络通过创新的模块设计与机制优化,能够有效地对GNN研究中常见的同质性网络和异质性网络进行精准建模,最终应用于节点分类这一核心任务,解决传统模型在不同结构网络中适应性不足的问题.具体地,在SGC⁃CSA中引入一种上下文结构增强方法,首先构建能够捕捉节点间结构关联与属性特征关系的节点相似度度量指标,通过该指标从图中识别出与核心节点潜在相似的邻居节点,即虽未直接连接但特征或结构高度关联的节点,同时构建k跳自我网络(以核心节点为中心,包含其k阶内所有邻居的子图),以此全面捕捉节点周围的局部上下文结构信息,为后续特征学习提供丰富的结构支撑.该上下文结构增强模块在实际作用过程中,基于节点间的特征亲和力(即特征相似度)来强调核心节点与上下文相似邻居的连接权重,这种设计在处理异质性节点时,能够有效过滤来自异类邻居的干扰噪声,减少无关信息对节点表示的负面影响,同时在处理同质性节点时,能够精准聚合同类邻居的特征,为其提供充足的类内信息,强化同类节点的特征一致性.

在此基础上,进一步为SGC⁃CSA设计了一种多路径融合机制,借助多头注意力技术,能够动态聚合三个对节点表示至关重要的关键信息源,即潜在相似邻居的特征信息、与核心节点直接连接的一跳邻居的特征信息以及核心节点自身的自我表示信息.通过捕捉每个节点独特的注意力分布,该机制能够精确建模同质性和异质性.为了验证SGC⁃CSA的有效性与优越性,在10个具有不同属性的真实世界数据集上进行了大量的对比实验与消融实验,从多个维度证明SGC⁃CSA比现有主流模型的性能更具优势.此外,SGC⁃CSA中图划分技术与自适应多路径融合机制的协同集成,进一步增强了模型对网络结构变化的稳健性.

未来将进一步拓展SGC⁃CSA.一方面,探索将其上下文结构感知及多路径融合机制迁移至图聚类、图生成等多元图学习任务中,验证该框架在复杂场景下的任务泛化能力;另一方面,聚焦动态图场景的适配性研究,结合时序演化信息优化自我网络的动态构建逻辑与多路径聚合策略,以满足动态拓扑结构下的表示学习需求.同时,也可尝试将组平衡损失的公平性设计向更细粒度的个体层面延伸,进一步强化模型在极端异质分布场景下的鲁棒性与公平性表现.这些研究方向有望充分挖掘SGC⁃CSA在图表示学习领域的技术潜力,为解决更具挑战性的图结构数据建模问题提供创新性的技术路径.

参考文献

[1]

Shen Z XHe H LKang Z. Balanced multi⁃relational graph clustering∥Proceedings of the 32nd ACM International Conference on Multimedia. New York,NY,USA:Association for Computing Machinery,2024:4120-4128.

[2]

Kipf T NWelling M. Semi⁃supervised classification with graph convolutional networks∥The 5th Inter⁃national Conference on Learning Representations. Toulon,France:ICLR,2017:1-14.

[3]

Errica FPodda MBacciu Det al. A fair comparison of graph neural networks for graph classification∥The 8th International Conference on Learning Representations. Addis Ababa,Ethiopia:ICLR,2020:1-14.

[4]

Zhang M HChen Y X. Link prediction based on graph neural networks. Advances in Neural Infor⁃mation Processing Systems2018,31:5165-5175.

[5]

Battaglia P WHamrick J BBapst Vet al. Relational inductive biases,deep learning,and graph networks. https://arxiv.org/abs/1806.01261,2018-10-17.

[6]

Hamilton WYing Z TLeskovec J. Inductive representation learning on large graphs. Advances in Neural Information Processing Systems2017,30:1024-1034.

[7]

Bo D YWang XShi Cet al. Beyond low⁃frequency information in graph convolutional networks. Proceedings of the AAAI Conference on Artificial Intelligence,202135(5):3950-3957.

[8]

Veličković PCucurull GCasanova Aet al. Graph attention networks. https://arxiv.org/abs/1710.10903,2018-02-04.

[9]

Xu K Y LHu W HLeskovec Jet al. How powerful are graph neural networks?https://arxiv.org/abs/1810.00826,2019-02-22.

[10]

Li B HPan E LKang Z. Pc⁃conv:Unifying homophily and heterophily with two⁃fold filtering. Proceedings of the AAAI Conference on Artificial Intelligence,202438(12):13437-13445.

[11]

Chien EPeng J HLi Pet al. Adaptive Universal generalized pageRank graph neural network∥The 9th International Conference on Learning Represen⁃tations. Online:ICLR,2021:1-24.

[12]

McPherson MSmith⁃Lovin LCook J M. Birds of a feather:Homophily in social networks. Annual Review of Sociology2001,27:415-444.

[13]

Pal S KMitra S. Multilayer perceptron,fuzzy sets,and classification. IEEE Transactions on Neural Networks19923(5):683-697.

[14]

Wu FSouza AZhang T Yet al. Simplifying graph convolutional networks∥Proceedings of the 36th International Conference on Machine Learning. New York,NY,USA:PMLR,2019:6861-6871.

[15]

Gasteiger JBojchevski AGünnemann S. Predict then propagate:Graph neural networks meet personalized pageRank∥International Conference on Learning Representations. Addis Ababa,Ethiopia:ICLR,2019:1-15.

[16]

Chen MWei Z WHuang Z Fet al. Simple and deep graph convolutional networks∥Proceedings of the 37th International Conference on Machine Learning. Cambridge,United Kingdom:JMLR.org,2020:1725-1735.

[17]

Abu⁃El⁃Haija SPerozzi BKapoor Aet al. Mixhop:Higher⁃order graph convolutional architectures via sparsified neighborhood mixing∥Proceedings of the 36th International Conference on Machine Learning. New York,NY,USA:PMLR,2019:21-29.

[18]

Zhu JYan Y JZhao L Xet al. Beyond homophily in graph neural networks:Current limitations and effective designs. Advances in Neural Information Processing Systems2020,33:7793-7804.

[19]

Chen JLi Z LZhu Yet al. From node interaction to hop interaction:New effective and scalable graph learning paradigm∥2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver,Canada:IEEE,2023:7876-7885.

[20]

Zhang Y ZSong G JDu Let al. Dane:Domain adaptive network embedding. https://arxiv.org/abs/1906.00684,2019-08-19.

[21]

Wu MPan S RZhou Cet al. Unsupervised domain adaptive graph convolutional networks∥Proceedings of the Web Conference. New York,NY,USA:Association for Computing Machinery,2020:1457-1467.

[22]

Li XZhu R YCheng Yet al. Finding global homophily in graph neural networks when meeting heterophily∥Proceedings of the 39th International Conference on Machine Learning. New York,NY,USA:PMLR,2022:13242-13256.

[23]

Defferrard MBresson XVandergheynst P. Convolutional neural networks on graphs with fast localized spectral filtering. Advances in Neural Information Processing Systems2016,29:3844-3852.

[24]

Xu K Y LLi C TTian Y Let al. Representation learning on graphs with jumping knowledge networks∥Proceedings of the 35th International Conference on Machine Learning.New York,NY,USA:PMLR,2018:5453-5462.

[25]

Liu MGao H YJi S W. Towards deeper graph neural networks∥Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York,NY,USA:Association for Computing Machinery,2020:338-348.

[26]

Hong X BLi W ZWang C Qet al. Label attentive distillation for GNN⁃based graph classification. Proceedings of the AAAI Conference on Artificial Intelligence,202438(8):8499-8507.

[27]

Lin M KLi W ZLi Det al. Resource⁃efficient training for large graph convolutional networks with label⁃centric cumulative sampling∥Proceedings of the ACM Web Conference. New York,NY,USA:Association for Computing Machinery,2022:1170-1180.

[28]

Shi Y SHuang Z JFeng S Ket al. Masked label prediction:Unified message passing model for semi⁃supervised classification. https://arxiv.org/abs/2009.03509,2021-05-10.

[29]

Hong X BZhang TCui Zet al. Variational gridded graph convolution network for node classification. IEEE/CAA Journal of Automatica Sinica20218(10):1697-1708.

[30]

Jin DYu Z ZHuo C Yet al. Universal graph convolutional networks. Advances in Neural Information Processing Systems2021,34:10654-10664.

[31]

Yang T MWang Y JYue Z Het al. Graph pointer neural networks. Proceedings of the AAAI Conference on Artificial Intelligence,202236(8):8832-8839.

[32]

Liu MWang Z YJi S W. Non⁃local graph neural networks. IEEE Transactions on Pattern Analysis and Machine Intelligence202144(12):10270-10276.

[33]

Yang LLi M ZLiu L Yet al. Diverse message passing for attribute with heterophily. Advances in Neural Information Processing Systems2021,34:4751-4763.

[34]

Pei H BWei B ZChang K C Cet al. Geom⁃gcn:Geometric graph convolutional networks∥The 8th International Conference on Learning Represen⁃tations. Addis Ababa,Ethiopia:ICLR,2020:1-14.

[35]

Zhu JRossi R ARao Aet al. Graph neural networks with heterophily. Proceedings of the AAAI Conference on Artificial Intelligence,202135(12):11168-11176.

[36]

Yan Y JHashemi MSwersky Ket al. Two sides of the same coin:Heterophily and oversmoothing in graph convolutional neural networks∥2022 IEEE International Conference on Data Mining. Orlando,FL,USA:IEEE,2022:1287-1292.

[37]

Kang ZLiu Z YPan S Ret al. Fine⁃grained attributed graph clustering∥Proceedings of the 2022 SIAM International Conference on Data Mining. Philadelphia,PA,USA:Society for Industrial and Applied Mathematics,2022:370-378.

[38]

Pan E LKang Z. Multi⁃view contrastive graph clustering. Advances in Neural Information Processing Systems2021,34:2148-2159.

[39]

Shen Z XWang SKang Z. Beyond redundancy:Information⁃aware unsupervised multiplex graph structure learning. Advances in Neural Information Processing Systems2024,37:31629-31658.

[40]

Wang TJin DWang Ret al. Powerful graph convolutional networks with adaptive propagation mechanism for homophily and heterophily∥Proceedings of the AAAI Conference on Artificial Intelligence. Vancouver,Canada:Association for the Advancement of Artificial Intelligence,2022, 36(4): 4210-4218

[41]

Namata GLondon BGetoor Let al. Query⁃driven active surveying for collective classification∥The 10th International Workshop on Mining and Learning with Graphs. Edinburgh,United Kingdom:MLG,2012

[42]

Sen PNamata GBilgic Met al. Collective classification in network data. AI Magazine200829(3):93.

[43]

Rozemberczki BAllen CSarkar Ret al. Multi⁃scale attributed node embedding. Journal of Complex Networks20219(1):1-22.

[44]

He M GWei Z WHuang Z Fet al. Bernnet:Learning arbitrary graph spectral filters via bernstein approximation. Advances in Neural Information Processing Systems2021,34:14239-14251.

[45]

Ai G GGao YWang Het al. Neighbors selective graph convolutional network for homophily and heterophily. Pattern Recognition Letters2024,184:44-51.

基金资助

国家自然科学基金(62276265)

国家自然科学基金(62576344)

AI Summary AI Mindmap
PDF (867KB)

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/