TabularPredictor.compile

TabularPredictor.compile(models='best', with_ancestors=True, compiler_configs='auto')[source]

编译模型以加速预测。 这有助于减少预测延迟并提高吞吐量。

请注意,这目前是一个实验性功能,支持的编译器可以是 [‘native’, ‘onnx’]。

为了使用特定的编译器进行编译,该编译器必须安装在Python环境中。

Parameters:
  • 模型 (列表字符串字符串, 默认 = 'best') – 要编译的模型名称。 如果选择‘best’,则编译具有最高验证分数的模型(这是默认用于预测的模型)。 如果选择‘all’,则编译所有模型。 有效的模型可以通过调用predictor.model_names()在此predictor中列出。

  • with_ancestors (bool, default = True) – 如果为True,提供的模型的所有祖先模型也将被编译。

  • compiler_configs (dictstr, 默认值 = "auto") –

    如果为“auto”,则默认为以下内容:
    compiler_configs = {

    “RF”: {“compiler”: “onnx”}, “XT”: {“compiler”: “onnx”}, “NN_TORCH”: {“compiler”: “onnx”},

    }

    否则,请手动指定一个compiler_configs字典。键可以是确切的模型名称或模型类型。 如果两者都适用于模型,则确切的模型名称优先于类型。 类型可以是真实类型,如RandomForestModel,也可以是简写“RF”。 类型的字典键逻辑与predictor.fit的hyperparameters参数中的逻辑相同。

    配置中的示例值:
    compilerstr, 默认值 = None

    用于模型编译的编译器。

    batch_sizeint, 默认值 = None

    为模型预测优化的批量大小。 默认情况下,批量大小为None。这意味着编译器将尝试利用动态形状进行预测。 使用batch_size=1更适合在线预测,它期望从一个数据点获得结果。 然而,由于多次内核执行的开销,它对于批处理可能会很慢。 将批量大小增加到大于1的数字将有助于提高预测吞吐量。 这会带来使用更大内存进行预测的代价。