dgl.nn (PyTorch)
Conv Layers
图卷积层来自使用图卷积网络进行半监督分类 |
|
该模块按照GCN中的形式对图上的正标量边权重进行归一化。 |
|
关系图卷积层来自使用图卷积网络建模关系数据 |
|
来自拓扑自适应图卷积网络的拓扑自适应图卷积层 |
|
Graph attention layer from Graph Attention Network |
|
GATv2 from How Attentive are Graph Attention Networks? |
|
Graph attention layer that handles edge features from Rossmann-Toolbox (see supplementary data) |
|
Graph attention layer with edge features from SCENE |
|
EdgeConv layer from Dynamic Graph CNN for Learning on Point Clouds |
|
GraphSAGE layer from Inductive Representation Learning on Large Graphs |
|
来自预测然后传播:图神经网络与个性化PageRank的相遇的近似个性化神经预测传播层 |
|
图同构网络层来自图神经网络有多强大? |
|
具有边特征的图同构网络,由图神经网络预训练策略引入 |
|
来自Gated Graph Sequence Neural Networks的门控图卷积层 |
|
Gated graph convolutional layer from Benchmarking Graph Neural Networks |
|
来自使用混合模型CNN在图和流形上进行几何深度学习的高斯混合模型卷积层 |
|
来自图上的快速局部谱滤波卷积神经网络的Chebyshev谱图卷积层 |
|
基于注意力的图神经网络层来自基于注意力的图神经网络用于半监督学习 |
|
图卷积层来自量子化学的神经消息传递 |
|
原子卷积层来自 用于预测蛋白质-配体结合亲和力的原子卷积网络 |
|
CFConv来自SchNet: 一种用于建模量子相互作用的连续滤波卷积神经网络 |
|
Apply dot product version of self attention in Graph Attention Network |
|
卷积与迭代重加权最小二乘法相结合,来自受经典迭代算法启发的图神经网络 |
|
描述 将传播和注意力结合起来。 |
|
通过初始残差和恒等映射的图卷积网络(GCNII)来自简单且深的图卷积网络 |
|
Heterogeneous graph transformer convolution from Heterogeneous Graph Transformer |
|
为GNNs引入的分组可逆残差连接,如使用1000层训练图神经网络中所述 |
|
来自E(n) 等变图神经网络的等变图卷积层 |
|
Directional Graph Network Layer from Directional Graph Networks |
CuGraph 卷积层
一个加速的关系图卷积层,来自使用图卷积网络建模关系数据,它利用了cugraph-ops中高度优化的聚合原语。 |
|
图注意力层来自图注意力网络,通过cugraph-ops加速了稀疏聚合。 |
|
一个加速的GraphSAGE层,来自大型图上的归纳表示学习,它利用了cugraph-ops中高度优化的聚合原语: |
Dense Conv Layers
图卷积层来自使用图卷积网络进行半监督分类 |
|
GraphSAGE layer from Inductive Representation Learning on Large Graphs |
|
Chebyshev Spectral Graph Convolution layer from Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering |
Global Pooling Layers
在图中的节点上应用求和池化。 |
|
对图中的节点应用平均池化。 |
|
在图的节点上应用最大池化。 |
|
Sort Pooling from An End-to-End Deep Learning Architecture for Graph Classification |
|
计算原子的重要性权重并执行加权求和。 |
|
Global Attention Pooling from Gated Graph Sequence Neural Networks |
|
Set2Set operator from Order Matters: Sequence to sequence for sets |
|
来自Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks的编码器模块 |
|
解码器模块来自Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks |
用于链接预测和知识图谱完成的评分模块
用于节点表示对的预测器/评分函数 |
|
Similarity measure from Translating Embeddings for Modeling Multi-relational Data |
|
相似性度量来自学习实体和关系嵌入以完成知识图谱 |
Heterogeneous Learning Modules
一个用于在异质图上计算卷积的通用模块。 |
|
对异构输入应用线性变换。 |
|
创建一个异构嵌入表。 |
|
根据类型进行线性变换。 |
Utility Modules
用于堆叠图神经网络模块的顺序容器 |
|
基础分解来自使用图卷积网络建模关系数据 |
|
将一组点转换为图的层,或将具有相同点数的多组点转换为这些图的批量联合。 |
|
将一组点转换为图的层,或将具有不同点数的多组点转换为这些图的批量联合。 |
|
将一组点转换为在给定距离内具有邻居的双向图的层。 |
|
跳跃知识聚合模块来自Representation Learning on Graphs with Jumping Knowledge Networks |
|
用于存储节点嵌入的类。 |
|
GNNExplainer模型来自GNNExplainer: 生成图神经网络的解释 |
|
GNNExplainer模型来自GNNExplainer: 生成图神经网络的解释,适用于异构图 |
|
SubgraphX 来自 关于通过子图探索解释图神经网络的可解释性 |
|
SubgraphX 来自 关于通过子图探索解释图神经网络的可解释性,适用于异构图 |
|
PGExplainer来自图神经网络的参数化解释器 |
|
PGExplainer from Parameterized Explainer for Graph Neural Network, adapted for heterogeneous graphs |
|
标签传播来自 从有标签和无标签数据中学习标签传播 |
网络嵌入模块
DeepWalk module from DeepWalk: Online Learning of Social Representations |
|
metapath2vec 模块来自 metapath2vec: 异构网络的可扩展表示学习 |
图变换器的实用模块
度编码器,如《Do Transformers Really Perform Bad for Graph Representation?》中介绍 |
|
拉普拉斯位置编码器(LPE),如GraphGPS: General Powerful Scalable Graph Transformers中介绍 |
|
路径编码器,如《Do Transformers Really Perform Bad for Graph Representation?》中的边缘编码所介绍。 |
|
空间编码器,如《Do Transformers Really Perform Bad for Graph Representation?》中介绍 |
|
3D空间编码器,如一个Transformer可以理解2D和3D分子数据中介绍的 |
|
带有图注意力偏置的密集多头注意力模块。 |
|
具有密集多头注意力的Graphormer层,如《Transformer真的在图表示中表现不佳吗?》中介绍的那样。 |
|
EGTLayer 用于边缘增强图变换器(EGT),如`Global Self-Attention as a Replacement for Graph Convolution Reference ` |