DGL
latest
开始使用
安装和设置
DGL 快速入门
先进材料
🆕 使用GraphBolt进行GNN的随机训练
用户指南
用户指南【包含过时信息】
用户指南[过时的]
🆕 教程: 图变换器
教程: dgl.sparse
在CPU上进行训练
在多GPU上进行训练
分布式训练
使用DGL进行论文研究
API 参考
dgl
dgl.data
dgl.dataloading
dgl.DGLGraph
dgl.distributed
dgl.function
dgl.geometry
🆕 dgl.graphbolt
dgl.nn (PyTorch)
dgl.nn.functional
dgl.ops
dgl.optim
dgl.sampling
dgl.sparse
dgl.multiprocessing
dgl.transforms
用户自定义函数
注释
为DGL做贡献
DGL 外部函数接口 (FFI)
性能基准测试
杂项
常见问题解答 (FAQ)
环境变量
资源
DGL
API Reference
Edit on GitHub
API参考
dgl
Graph Create Ops
子图提取操作
图变换操作
图位置编码操作:
图分区工具
批处理和读取操作
邻接相关工具
图遍历与消息传播
同质性测量
标签信息量度量
Utilities
dgl.data
Base Class
节点预测数据集
边预测数据集
图预测数据集
数据集适配器
Utilities
dgl.dataloading
DataLoaders
Samplers
采样器转换
链接预测的负采样器
用于特征预取的实用类和函数
dgl.DGLGraph
DGLGraph
查询元图结构
查询图结构
查询和操作稀疏格式
查询和操作节点/边ID类型
使用节点/边特征
转换图
邻接矩阵和关联矩阵
使用DGLGraph进行计算
查询和操作批次信息
Mutating topology
设备控制
杂项
dgl.distributed
初始化
分布式图
分布式张量
分布式节点嵌入
分布式嵌入优化器
分布式工作负载分割
分布式采样
Partition
dgl.function
DGL 内置函数
Message functions
Reduce functions
dgl.nn (PyTorch)
卷积层
CuGraph 卷积层
Dense Conv Layers
全局池化层
用于链接预测和知识图谱完成的评分模块
异构学习模块
实用模块
网络嵌入模块
图变换器的实用模块
dgl.nn (TensorFlow)
卷积层
全局池化层
异构学习模块
dgl.nn (MXNet)
卷积层
Dense Conv Layers
全局池化层
异构学习模块
实用模块
dgl.ops
GSpMM 函数
GSDDMM 函数
Segment Reduce 模块
GatherMM 和 SegmentMM 模块
支持的数据类型
与消息传递API的关系
dgl.sampling
随机游走
邻居采样
负采样
用户自定义函数
Edge-wise 用户自定义函数
节点级别的用户定义函数
使用用户定义函数进行消息传递的度数分桶
dgl.transforms
BaseTransform
Compose
AddSelfLoop
RemoveSelfLoop
AddReverse
ToSimple
LineGraph
KHopGraph
AddMetaPaths
GCNNorm
PPR
HeatKernel
GDC
NodeShuffle
DropNode
DropEdge
AddEdge
RandomWalkPE
LapPE
FeatMask
RowFeatNormalizer
SIGNDiffusion
ToLevi
SVDPE
Read the Docs
v: latest
Versions
latest
2.2.x
2.1.x
2.0.x
1.1.x
1.0.x
0.9.x
0.8.x
0.7.x
0.6.x
Downloads
On Read the Docs
Project Home
Builds