GINEConv

class dgl.nn.pytorch.conv.GINEConv(apply_func=None, init_eps=0, learn_eps=False)[source]

Bases: Module

具有边特征的图同构网络,由 图神经网络预训练策略引入

\[h_i^{(l+1)} = f_\Theta \left((1 + \epsilon) h_i^{l} + \sum_{j\in\mathcal{N}(i)}\mathrm{ReLU}(h_j^{l} + e_{j,i}^{l})\right)\]

其中 \(e_{j,i}^{l}\) 是边的特征。

Parameters:
  • apply_func (可调用模块None) – 公式中的 \(f_\Theta\)。如果不为 None,它将应用于更新后的节点特征。默认值为 None。

  • init_eps (float, optional) – 初始的 \(\epsilon\) 值,默认值:0

  • learn_eps (bool, 可选) – 如果为True,\(\epsilon\)将是一个可学习的参数。默认值:False

示例

>>> import dgl
>>> import torch
>>> import torch.nn as nn
>>> from dgl.nn import GINEConv
>>> g = dgl.graph(([0, 1, 2], [1, 1, 3]))
>>> in_feats = 10
>>> out_feats = 20
>>> nfeat = torch.randn(g.num_nodes(), in_feats)
>>> efeat = torch.randn(g.num_edges(), in_feats)
>>> conv = GINEConv(nn.Linear(in_feats, out_feats))
>>> res = conv(g, nfeat, efeat)
>>> print(res.shape)
torch.Size([4, 20])
forward(graph, node_feat, edge_feat)[source]

前向计算。

Parameters:
  • graph (DGLGraph) – The graph.

  • node_feat (torch.Tensor一对 torch.Tensor) – 如果给定一个 torch.Tensor,它是形状为 \((N, D_{in})\) 的输入特征,其中 \(D_{in}\) 是输入特征的大小,\(N\) 是节点的数量。 如果给定一对 torch.Tensor,这对张量必须包含两个形状为 \((N_{in}, D_{in})\)\((N_{out}, D_{in})\) 的张量。 如果 apply_func 不为空,\(D_{in}\) 应该 符合 apply_func 的输入特征大小要求。

  • edge_feat (torch.Tensor) – 边特征。它是一个形状为 \((E, D_{in})\) 的张量,其中 \(E\) 是边的数量。

Returns:

输出特征的形状为 \((N, D_{out})\),其中 \(D_{out}\)apply_func 的输出特征大小。 如果 apply_func 为 None,\(D_{out}\) 应该与 \(D_{in}\) 相同。

Return type:

torch.Tensor