BentoML 文档

github_stars pypi_status actions_status documentation_status join_slack


BentoML 是一个统一推理平台,用于在任何云上使用任何模型部署和扩展 AI 系统。

什么是 BentoML

BentoML 是一个统一推理平台,用于以生产级可靠性部署和扩展 AI 模型,无需复杂的管理基础设施。它使您的开发者能够使用自定义模型将 AI 系统的构建速度提高 10 倍,在您的云中高效扩展,并保持对安全性和合规性的完全控制

The architecture diagram of the BentoML unified inference platform

BentoML 入门

操作指南

使用 BentoML 构建您的自定义 AI API。

创建在线 API 服务

通过一条命令将您的 AI 应用程序部署到生产环境。

创建部署

配置快速自动扩展以实现最佳性能。

并发与自动扩展

使用 BentoML 在 GPU 上运行模型推理。

使用 GPU

使用您喜爱的 IDE 通过强大的云 GPU 进行开发。

使用 Codespaces 进行开发

使用 BentoML 加载和提供您的自定义模型。

加载和管理模型

保持关注

BentoML 团队通过以下渠道发布重要更新,例如主要产品版本发布,并分享教程、案例研究以及社区新闻。

要接收版本发布通知,请在 GitHub 上 Star 并 Watch BentoML 项目。有关版本说明和详细更改日志,请参阅版本发布页面。