部署模型用于推理 - Amazon SageMaker
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 AWS 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

部署模型用于推理

构建并训练模型之后,您可以部署这些模型,以便通过两种方式之一来获取预测:

Prerequisites

以下主题假设您已构建和训练了一个或多个机器学习模型,并已准备好部署它们。如果您刚开始使用 SageMaker 并且尚未完成这些先决条件任务,请完成 入门Amazon SageMaker教程中的步骤,熟练掌握 SageMaker 如何管理数据科学流程以及如何处理模型部署的示例。有关训练模型的更多信息,请参阅训练模型

您需要做什么?

SageMaker 提供了用于在部署机器学习模型时管理资源和优化推理性能的功能。有关使用推理管道、使用 Neo 编译和部署模型、Elastic Inference 以及自动模型伸缩的指南,请参阅以下主题。

管理模型部署

有关管理模型部署的指南,包括监控、故障排查和最佳实践,以及有关与推理托管实例关联的存储的信息:

部署自己的推理代码

对于需要有关如何运行自己的推理代码的更高级指导的开发人员:

SageMaker 指南

什么是 Amazon SageMaker?

主题