TabularPredictor.persist

TabularPredictor.persist(models='best', with_ancestors=True, max_memory=0.4) List[str][source]

将模型持久化在内存中以减少推理延迟。如果模型用于在线推理,低延迟至关重要,这一点尤为重要。 如果模型没有持久化在内存中,每次需要做出预测时都会从磁盘加载。

Parameters:
  • 模型 (列表字符串字符串, 默认 = 'best') – 要持久化的模型名称。 如果为‘best’,则持久化验证分数最高的模型(这是默认用于预测的模型)。 如果为‘all’,则持久化所有模型。 有效的模型可以通过调用predictor.model_names()在此predictor中列出。

  • with_ancestors (bool, default = True) – 如果为True,提供的模型的所有祖先模型也将被持久化。 如果为False,堆叠模型将不会持久化它们所依赖的模型,除非这些模型在models中被指定。这将减慢推理速度,因为祖先模型仍然需要从磁盘加载以进行每次预测调用。 仅适用于堆叠模型。

  • max_memory (float, default = 0.4) – 允许持久化模型使用的总可用内存的比例。 如果模型的总内存使用量需要比max_memory更大的内存比例,则不会持久化。在这种情况下,输出将是一个空列表。 如果为None,则无论估计的内存使用量如何,模型都会被持久化。这可能会导致内存不足错误。

Return type:

持久化模型名称列表。