Shortcuts

is_distributed

torchtune.training.is_distributed() bool[source]

检查是否设置了初始化 torch.distributed 所需的所有环境变量,并且分布式已正确安装。这表明这是一个分布式运行。 https://pytorch.org/docs/stable/distributed.html#environment-variable-initialization

检查以下条件:

  • torch.distributed 可用

  • 主端口和主地址环境变量已设置

  • 世界大小大于1

  • rank 环境变量已设置

Returns:

如果上述所有条件都成立,则为True,否则为False。

Return type:

bool