• Tutorials >
  • Reducing torch.compile cold start compilation time with regional compilation
Shortcuts

通过区域编译减少torch.compile冷启动编译时间

创建于:2024年10月10日 | 最后更新:2024年10月16日 | 最后验证:2024年10月10日

作者: Animesh Jain

随着深度学习模型的增大,这些模型的编译时间也随之增加。这种延长的编译时间可能导致推理服务中的启动时间过长,或者在大规模训练中浪费资源。本示例展示了如何通过选择编译模型的重复区域而不是整个模型来减少冷启动编译时间。

先决条件

  • Pytorch 2.5 或更高版本

设置

在我们开始之前,如果还没有安装torch,我们需要先安装它。

pip install torch

注意

此功能从2.5版本开始可用。如果您使用的是2.4版本,您可以启用配置标志torch._dynamo.config.inline_inbuilt_nn_modules=True以防止在区域编译期间重新编译。在2.5版本中,此标志默认启用。

from time import perf_counter

步骤

在本教程中,我们将按照以下步骤进行:

  1. 导入所有必要的库。

  2. 定义并初始化一个具有重复区域的神经网络。

  3. 了解完整模型和区域编译之间的区别。

  4. 测量完整模型和区域编译的编译时间。

首先,让我们导入加载数据所需的库:

import torch
import torch.nn as nn

接下来,让我们定义并初始化一个具有重复区域的神经网络。

通常,神经网络由重复的层组成。例如,一个大型语言模型由许多Transformer块组成。在这个配方中,我们将使用nn.Module类作为重复区域的代理来创建一个Layer。然后,我们将创建一个由64个该Layer类实例组成的Model

class Layer(torch.nn.Module):
    def __init__(self):
        super().__init__()
        self.linear1 = torch.nn.Linear(10, 10)
        self.relu1 = torch.nn.ReLU()
        self.linear2 = torch.nn.Linear(10, 10)
        self.relu2 = torch.nn.ReLU()

    def forward(self, x):
        a = self.linear1(x)
        a = self.relu1(a)
        a = torch.sigmoid(a)
        b = self.linear2(a)
        b = self.relu2(b)
        return b


class Model(torch.nn.Module):
    def __init__(self, apply_regional_compilation):
        super().__init__()
        self.linear = torch.nn.Linear(10, 10)
        # Apply compile only to the repeated layers.
        if apply_regional_compilation:
            self.layers = torch.nn.ModuleList(
                [torch.compile(Layer()) for _ in range(64)]
            )
        else:
            self.layers = torch.nn.ModuleList([Layer() for _ in range(64)])

    def forward(self, x):
        # In regional compilation, the self.linear is outside of the scope of `torch.compile`.
        x = self.linear(x)
        for layer in self.layers:
            x = layer(x)
        return x

接下来,让我们回顾一下完整模型和区域编译之间的区别。

在完整模型编译中,整个模型作为一个整体进行编译。这是大多数用户使用torch.compile时采取的常见方法。在这个例子中,我们将torch.compile应用于Model对象。这将有效地内联64层,生成一个大的图进行编译。您可以通过使用TORCH_LOGS=graph_code运行此配方来查看完整的图。

model = Model(apply_regional_compilation=False).cuda()
full_compiled_model = torch.compile(model)

另一方面,区域编译会编译模型的一个区域。 通过策略性地选择编译模型的重复区域,我们可以编译一个 更小的图,然后为所有区域重复使用编译后的图。 在示例中,torch.compile 仅应用于 layers 而不是整个模型。

regional_compiled_model = Model(apply_regional_compilation=True).cuda()

对重复区域而不是整个模型应用编译,可以大大节省编译时间。在这里,我们将只编译一个层实例,然后在Model对象中重复使用它64次。

请注意,对于重复区域,模型的某些部分可能不会被编译。 例如,self.linearModel 中位于区域编译的范围之外。

另外,请注意性能加速和编译时间之间存在权衡。完整模型编译涉及更大的图,理论上提供了更多的优化空间。然而,出于实际目的并根据模型的不同,我们观察到许多情况下完整模型和区域编译之间的加速差异很小。

接下来,让我们测量完整模型和区域编译的编译时间。

torch.compile 是一个JIT编译器,这意味着它在第一次调用时进行编译。 在下面的代码中,我们测量了第一次调用所花费的总时间。虽然这种方法并不精确,但它提供了一个很好的估计,因为大部分时间都花在了编译上。

def measure_latency(fn, input):
    # Reset the compiler caches to ensure no reuse between different runs
    torch.compiler.reset()
    with torch._inductor.utils.fresh_inductor_cache():
        start = perf_counter()
        fn(input)
        torch.cuda.synchronize()
        end = perf_counter()
        return end - start


input = torch.randn(10, 10, device="cuda")
full_model_compilation_latency = measure_latency(full_compiled_model, input)
print(f"Full model compilation time = {full_model_compilation_latency:.2f} seconds")

regional_compilation_latency = measure_latency(regional_compiled_model, input)
print(f"Regional compilation time = {regional_compilation_latency:.2f} seconds")

assert regional_compilation_latency < full_model_compilation_latency
Full model compilation time = 29.71 seconds
Regional compilation time = 1.74 seconds

结论

本食谱展示了如果您的模型有重复区域,如何控制冷启动编译时间。这种方法需要用户修改,将torch.compile应用于重复区域,而不是更常用的全模型编译。我们正在不断努力减少冷启动编译时间。

脚本总运行时间: ( 0 分钟 31.529 秒)

Gallery generated by Sphinx-Gallery

优云智算