MultiModalPredictor.export_onnx¶
- MultiModalPredictor.export_onnx(data: dict | DataFrame, path: str | None = None, batch_size: int | None = None, verbose: bool | None = False, opset_version: int | None = 16, truncate_long_and_double: bool | None = False)[source]¶
将此预测器的模型导出为ONNX文件。
当未提供path参数时,该方法不会将模型保存到磁盘。 相反,它会将onnx模型导出到BytesIO并返回其二进制数据作为字节。
- Parameters:
data – 用于跟踪和导出模型的原始数据。 如果为None,将检查是否提供了处理过的批次。
path (str, default=None) – onnx模型的导出路径。如果未提供路径,该方法将模型导出到内存中。
batch_size – 导出模型输入的batch_size。 通常情况下,batch_size是一个动态轴,因此我们可以使用较小的值以加快导出速度。
verbose – torch.onnx.export中的详细标志。
opset_version – torch.onnx.export 中的 opset_version 标志。
truncate_long_and_double (bool, 默认 False) – 将int64或double(float64)提供的权重截断为int32和float32
- Returns:
onnx_path – 一个字符串,表示导出的onnx模型的位置,如果提供了path参数。 否则,将返回onnx模型作为字节。
- Return type:
字符串或字节