BentoML 文档

github_stars pypi_status actions_status documentation_status join_slack


BentoML 是一个统一推理平台,用于在任何云上部署和扩展任何模型的 AI 系统。

什么是BentoML

BentoML 是一个统一推理平台,用于以生产级可靠性部署和扩展 AI 模型,而无需管理基础设施的复杂性。它使您的开发人员能够使用自定义模型以 10 倍的速度构建 AI 系统,在云中高效扩展,并完全控制安全性和合规性

_images/bentoml-inference-platform.png

开始使用 BentoML:

操作指南

使用 BentoML 构建您的自定义 AI API。

创建在线API服务

通过一个命令将您的AI应用程序部署到生产环境。

创建部署

配置快速自动扩展以实现最佳性能。

并发和自动扩展

在GPU上使用BentoML运行模型推理。

使用GPU

使用您最喜欢的IDE开发强大的云GPU。

使用Codespaces进行开发

使用BentoML加载并提供您的自定义模型。

加载和管理模型

保持关注

BentoML团队使用以下渠道发布重要更新,如主要产品发布,并分享教程、案例研究以及社区新闻。

要接收发布通知,请在GitHub上关注并星标BentoML项目。 有关发布说明和详细的变更日志,请参阅发布页面。