BentoML 文档

github_stars pypi_status actions_status documentation_status join_slack


BentoML 是一个统一推理平台,可用于在任何云上部署和扩展任何模型的 AI 系统。

什么是 BentoML

BentoML 是一个统一推理平台,可用于部署和扩展具有生产级可靠性的 AI 模型,而无需管理基础设施的复杂性。它使您的开发者能够使用自定义模型以快 10 倍的速度构建 AI 系统,在您的云中高效扩展,并完全控制安全性和合规性

The architecture diagram of the BentoML unified inference platform

开始使用 BentoML

操作方法

使用 BentoML 构建您的自定义 AI API。

创建在线 API 服务

使用一个命令将您的 AI 应用部署到生产环境。

创建部署

配置快速自动扩缩容以实现最佳性能。

并发和自动扩缩容

使用 BentoML 在 GPU 上运行模型推理。

使用 GPU

使用您喜爱的 IDE 通过强大的云 GPU 进行开发。

使用 Codespaces 开发

使用 BentoML 加载和提供您的自定义模型。

加载和管理模型

保持关注

BentoML 团队通过以下渠道发布重要更新,例如主要产品发布,并分享教程、案例研究以及社区新闻。

要接收发布通知,请在 GitHub 上加星并关注 BentoML 项目。有关发布说明和详细的更新日志,请参阅发布页面。