TimeSeriesPredictor.persist¶
- TimeSeriesPredictor.persist(models: Literal['all', 'best'] | List[str] = 'best', with_ancestors: bool = True) List[str][source]¶
将模型持久化在内存中以减少推理延迟。这对于在线推理尤为重要,因为低延迟是关键。如果模型没有持久化在内存中,每次需要做出预测时都需要从磁盘加载。这对于大型深度学习模型尤其麻烦,因为每次都需要加载到加速器(例如,GPU)内存中。
- Parameters:
模型 (列表 的 字符串 或 字符串, 默认 = 'best') – 要持久化的模型名称。 如果选择‘best’,则保留验证分数最高的模型(这是默认用于预测的模型)。 如果选择‘all’,则保留所有模型。有效的模型可以通过调用predictor.model_names()在此predictor中列出。
with_ancestors (bool, default = True) – 如果为True,提供的模型的所有祖先模型也将被持久化。 如果为False,集成模型将不会持久化它们所依赖的模型,除非这些模型在models中被指定。 这将减慢推理速度,因为祖先模型仍然需要从磁盘加载以进行每次预测调用。 仅适用于集成模型。
- Returns:
list_of_models – 持久化模型名称的列表。
- Return type:
列表[str]