MultiModalPredictor.export_onnx

MultiModalPredictor.export_onnx(data: dict | DataFrame, path: str | None = None, batch_size: int | None = None, verbose: bool | None = False, opset_version: int | None = 16, truncate_long_and_double: bool | None = False)[source]

将此预测器的模型导出为ONNX文件。

当未提供path参数时,该方法不会将模型保存到磁盘。 相反,它会将onnx模型导出到BytesIO并返回其二进制数据作为字节。

Parameters:
  • data – 用于跟踪和导出模型的原始数据。 如果为None,将检查是否提供了处理过的批次。

  • path (str, default=None) – onnx模型的导出路径。如果未提供路径,该方法将模型导出到内存中。

  • batch_size – 导出模型输入的batch_size。 通常情况下,batch_size是一个动态轴,因此我们可以使用较小的值以加快导出速度。

  • verbose – torch.onnx.export中的详细标志。

  • opset_version – torch.onnx.export 中的 opset_version 标志。

  • truncate_long_and_double (bool, 默认 False) – 将int64或double(float64)提供的权重截断为int32和float32

Returns:

onnx_path – 一个字符串,表示导出的onnx模型的位置,如果提供了path参数。 否则,将返回onnx模型作为字节。

Return type:

字符串或字节