本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
部署 Autopilot 模型进行实时推理
训练 Amazon A SageMaker utopilot 模型后,您可以设置终端节点并以交互方式获取预测结果。以下部分介绍将模型部署到 SageMaker AI 实时推理端点以从模型中获取预测的步骤。
实时推理
实时推理非常适合有实时、交互式、低延迟要求的推理工作负载。此部分演示如何使用实时推理,以交互方式从模型获取预测。
您可以使用 SageMaker APIs 手动部署在自动驾驶实验中生成最佳验证指标的模型,如下所示。
或者,当您创建 Autopilot 实验时,也可选择自动部署选项。有关设置模型自动部署的信息,请参阅请求参数 CreateAutoMLJobV2 中的 ModelDeployConfig。这将自动创建一个端点。
注意
为避免产生不必要的费用,您可以删除从模型部署中创建的不需要端点和资源。有关按地区划分的实例定价的信息,请参阅 Amazon SageMaker 定价
-
获取候选容器定义
从中获取候选容器定义InferenceContainers。用于推理的容器定义是指专为部署和运行经过训练的 SageMaker AI 模型进行预测而设计的容器化环境。
以下 Amazon CLI 命令示例使用 DescribeAutoMLJobV2 API 获取最佳候选模型的候选定义。
aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-namejob-name--regionregion -
列出候选项
以下 Amazon CLI 命令示例使用 ListCandidatesForAutoMLJobAPI 列出所有候选模型。
aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name<job-name>--region<region> -
创建 A SageMaker I 模型
使用前面步骤中的容器定义和您选择的候选容器通过CreateModel该 API 创建 SageMaker AI 模型。以以下 Amazon CLI 命令为例。
aws sagemaker create-model --model-name '<your-candidate-name>' \ --containers ['<container-definition1>,<container-definition2>,<container-definition3>]' \ --execution-role-arn '<execution-role-arn>' --region '<region> -
创建端点配置
以下 Amazon CLI 命令示例使用 CreateEndpointConfigAPI 创建终端节点配置。
aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \ --production-variants '<list-of-production-variants>' \ --region '<region>' -
创建端点
以下 Amazon CLI 示例使用 CreateEndpointAPI 创建终端节点。
aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \ --endpoint-config-name '<endpoint-config-name-you-just-created>' \ --region '<region>'使用 DescribeEndpointAPI 检查您的终端节点部署进度。以以下 Amazon CLI 命令为例。
aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region<region>将
EndpointStatus更改为InService后,端点即可用于实时推理。 -
调用端点
以下命令结构调用端点以进行实时推理。
aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ --region '<region>' --body '<your-data>' [--content-type] '<content-type>'<outfile>