MultiModalPredictor.optimize_for_inference

MultiModalPredictor.optimize_for_inference(providers: dict | List[str] | None = None)[来源]

优化预测器模型以进行推理。

在底层,实现会将 PyTorch 模块转换为 ONNX 模块,以便我们可以利用 onnxruntime 中的高效执行提供程序来加速推理。

Parameters:

providers (dictstr, 默认=None) –

用于在onnxruntime中进行模型预测的执行提供者列表。

默认情况下,providers参数为None。如果tensorrt包已正确安装,该方法将生成一个ONNX模块,该模块将在onnxruntime中使用TensorrtExecutionProvider执行模型推理。否则,onnxruntime将回退使用CUDA或CPU执行提供者。

Returns:

onnx_module – 基于onnx的模块,可用于替换predictor._model以进行模型推理。

Return type:

Onnx模块