dgl.nn (PyTorch)

Conv Layers

GraphConv

图卷积层来自使用图卷积网络进行半监督分类

EdgeWeightNorm

该模块按照GCN中的形式对图上的正标量边权重进行归一化。

RelGraphConv

关系图卷积层来自使用图卷积网络建模关系数据

TAGConv

来自拓扑自适应图卷积网络的拓扑自适应图卷积层

GATConv

Graph attention layer from Graph Attention Network

GATv2Conv

GATv2 from How Attentive are Graph Attention Networks?

EGATConv

Graph attention layer that handles edge features from Rossmann-Toolbox (see supplementary data)

EdgeGATConv

Graph attention layer with edge features from SCENE

EdgeConv

EdgeConv layer from Dynamic Graph CNN for Learning on Point Clouds

SAGEConv

GraphSAGE layer from Inductive Representation Learning on Large Graphs

SGConv

SGC层来自Simplifying Graph Convolutional Networks

APPNPConv

来自预测然后传播:图神经网络与个性化PageRank的相遇的近似个性化神经预测传播层

GINConv

图同构网络层来自图神经网络有多强大?

GINEConv

具有边特征的图同构网络,由图神经网络预训练策略引入

GatedGraphConv

来自Gated Graph Sequence Neural Networks的门控图卷积层

GatedGCNConv

Gated graph convolutional layer from Benchmarking Graph Neural Networks

GMMConv

来自使用混合模型CNN在图和流形上进行几何深度学习的高斯混合模型卷积层

ChebConv

来自图上的快速局部谱滤波卷积神经网络的Chebyshev谱图卷积层

AGNNConv

基于注意力的图神经网络层来自基于注意力的图神经网络用于半监督学习

NNConv

图卷积层来自量子化学的神经消息传递

AtomicConv

原子卷积层来自 用于预测蛋白质-配体结合亲和力的原子卷积网络

CFConv

CFConv来自SchNet: 一种用于建模量子相互作用的连续滤波卷积神经网络

DotGatConv

Apply dot product version of self attention in Graph Attention Network

TWIRLSConv

卷积与迭代重加权最小二乘法相结合,来自受经典迭代算法启发的图神经网络

TWIRLSUnfoldingAndAttention

描述 将传播和注意力结合起来。

GCN2Conv

通过初始残差和恒等映射的图卷积网络(GCNII)来自简单且深的图卷积网络

HGTConv

Heterogeneous graph transformer convolution from Heterogeneous Graph Transformer

GroupRevRes

为GNNs引入的分组可逆残差连接,如使用1000层训练图神经网络中所述

EGNNConv

来自E(n) 等变图神经网络的等变图卷积层

PNAConv

来自Principal Neighbourhood Aggregation for Graph Nets的主邻域聚合层

DGNConv

Directional Graph Network Layer from Directional Graph Networks

CuGraph 卷积层

CuGraphRelGraphConv

一个加速的关系图卷积层,来自使用图卷积网络建模关系数据,它利用了cugraph-ops中高度优化的聚合原语。

CuGraphGATConv

图注意力层来自图注意力网络,通过cugraph-ops加速了稀疏聚合。

CuGraphSAGEConv

一个加速的GraphSAGE层,来自大型图上的归纳表示学习,它利用了cugraph-ops中高度优化的聚合原语:

Dense Conv Layers

DenseGraphConv

图卷积层来自使用图卷积网络进行半监督分类

DenseSAGEConv

GraphSAGE layer from Inductive Representation Learning on Large Graphs

DenseChebConv

Chebyshev Spectral Graph Convolution layer from Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering

Global Pooling Layers

SumPooling

在图中的节点上应用求和池化。

AvgPooling

对图中的节点应用平均池化。

MaxPooling

在图的节点上应用最大池化。

SortPooling

Sort Pooling from An End-to-End Deep Learning Architecture for Graph Classification

WeightAndSum

计算原子的重要性权重并执行加权求和。

GlobalAttentionPooling

Global Attention Pooling from Gated Graph Sequence Neural Networks

Set2Set

Set2Set operator from Order Matters: Sequence to sequence for sets

SetTransformerEncoder

来自Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks的编码器模块

SetTransformerDecoder

解码器模块来自Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks

Heterogeneous Learning Modules

HeteroGraphConv

一个用于在异质图上计算卷积的通用模块。

HeteroLinear

对异构输入应用线性变换。

HeteroEmbedding

创建一个异构嵌入表。

TypedLinear

根据类型进行线性变换。

Utility Modules

Sequential

用于堆叠图神经网络模块的顺序容器

WeightBasis

基础分解来自使用图卷积网络建模关系数据

KNNGraph

将一组点转换为图的层,或将具有相同点数的多组点转换为这些图的批量联合。

SegmentedKNNGraph

将一组点转换为图的层,或将具有不同点数的多组点转换为这些图的批量联合。

RadiusGraph

将一组点转换为在给定距离内具有邻居的双向图的层。

JumpingKnowledge

跳跃知识聚合模块来自Representation Learning on Graphs with Jumping Knowledge Networks

NodeEmbedding

用于存储节点嵌入的类。

GNNExplainer

GNNExplainer模型来自GNNExplainer: 生成图神经网络的解释

HeteroGNNExplainer

GNNExplainer模型来自GNNExplainer: 生成图神经网络的解释,适用于异构图

SubgraphX

SubgraphX 来自 关于通过子图探索解释图神经网络的可解释性

HeteroSubgraphX

SubgraphX 来自 关于通过子图探索解释图神经网络的可解释性,适用于异构图

PGExplainer

PGExplainer来自图神经网络的参数化解释器

HeteroPGExplainer

PGExplainer from Parameterized Explainer for Graph Neural Network, adapted for heterogeneous graphs

LabelPropagation

标签传播来自 从有标签和无标签数据中学习标签传播

网络嵌入模块

DeepWalk

DeepWalk module from DeepWalk: Online Learning of Social Representations

MetaPath2Vec

metapath2vec 模块来自 metapath2vec: 异构网络的可扩展表示学习

图变换器的实用模块

DegreeEncoder

度编码器,如《Do Transformers Really Perform Bad for Graph Representation?》中介绍

LapPosEncoder

拉普拉斯位置编码器(LPE),如GraphGPS: General Powerful Scalable Graph Transformers中介绍

PathEncoder

路径编码器,如《Do Transformers Really Perform Bad for Graph Representation?》中的边缘编码所介绍。

SpatialEncoder

空间编码器,如《Do Transformers Really Perform Bad for Graph Representation?》中介绍

SpatialEncoder3d

3D空间编码器,如一个Transformer可以理解2D和3D分子数据中介绍的

BiasedMHA

带有图注意力偏置的密集多头注意力模块。

GraphormerLayer

具有密集多头注意力的Graphormer层,如《Transformer真的在图表示中表现不佳吗?》中介绍的那样。

EGTLayer

EGTLayer 用于边缘增强图变换器(EGT),如`Global Self-Attention as a Replacement for Graph Convolution Reference ``_中介绍