使用推理管道运行实时预测 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

使用推理管道运行实时预测

您可以在推理管道中使用经训练的模型直接进行实时预测,无需执行外部预处理。当您配置管道时,您可以选择使用 Amazon SageMaker 中已经提供的内置特征转换器。或者,您可以使用几行 scikit-learn 或 Spark 代码来实施自己的转换逻辑。

MLeap 是一种用于机器学习管道的序列化格式和执行引擎,它支持 Spark、scikit-learn 和 TensorFlow,用于训练管道并将其导出到称为 MLeap Bundle 的序列化管道中。您可以将服务包反序列化到 Spark 用于批量模式评分,或者反序列化到 MLeap 运行时以强化实时 API 服务。

管道中的容器侦听由 SAGEMAKER_BIND_TO_PORT 环境变量指定的端口(而不是 8080)。在推理管道中运行时,SageMaker 自动向容器提供此环境变量。如果此环境变量不存在,则容器应默认为使用端口 8080。要指示您的容器使用此要求进行编译,请使用以下命令将标签添加到您的 Dockerfile:

LABEL com.amazonaws.sagemaker.capabilities.accept-bind-to-port=true

如果您的容器需要侦听第二个端口,请在 SAGEMAKER_SAFE_PORT_RANGE 环境变量指定的范围中选择端口。使用格式 "XXXX-YYYY" 指定值,其中 XXXXYYYY 是多位数的整数,包含范围的两端。当您在多容器管道中运行容器时,SageMaker 会自动提供此值。

注意

在包括 SageMaker 内置算法的管道中使用自定义 Docker 映像时,您需要具有 Amazon Elastic Container Registry (Amazon ECR) 策略。您的 Amazon ECR 存储库必须授予 SageMaker 权限以拉取映像。有关更多信息,请参阅 推理管道的 Amazon ECR 权限故障排除

创建和部署推理管道端点

以下代码通过 SageMaker SDK,使用 SparkML 和 XGBoost 模型按顺序创建和部署实时推理管道模型。

from sagemaker.model import Model from sagemaker.pipeline_model import PipelineModel from sagemaker.sparkml.model import SparkMLModel sparkml_data = 's3://{}/{}/{}'.format(s3_model_bucket, s3_model_key_prefix, 'model.tar.gz') sparkml_model = SparkMLModel(model_data=sparkml_data) xgb_model = Model(model_data=xgb_model.model_data, image=training_image) model_name = 'serial-inference-' + timestamp_prefix endpoint_name = 'serial-inference-ep-' + timestamp_prefix sm_model = PipelineModel(name=model_name, role=role, models=[sparkml_model, xgb_model]) sm_model.deploy(initial_instance_count=1, instance_type='ml.c4.xlarge', endpoint_name=endpoint_name)

请求从推理管道端点进行实时推理

以下示例演示如何通过调用推理端点进行实时预测,并传递 JSON 格式的请求负载:

import sagemaker from sagemaker.predictor import json_serializer, json_deserializer, Predictor payload = { "input": [ { "name": "Pclass", "type": "float", "val": "1.0" }, { "name": "Embarked", "type": "string", "val": "Q" }, { "name": "Age", "type": "double", "val": "48.0" }, { "name": "Fare", "type": "double", "val": "100.67" }, { "name": "SibSp", "type": "double", "val": "1.0" }, { "name": "Sex", "type": "string", "val": "male" } ], "output": { "name": "features", "type": "double", "struct": "vector" } } predictor = Predictor(endpoint=endpoint_name, sagemaker_session=sagemaker.Session(), serializer=json_serializer, content_type='text/csv', accept='application/json' print(predictor.predict(payload))

您从 predictor.predict(payload) 中得到的响应是模型的推理结果。

实时推理管道示例

您可以使用 SKLearn 预测器运行此示例笔记本,该预测器显示如何部署端点,运行推理请求,然后对响应进行反序列化。在 Amazon SageMaker 示例 GitHub 存储库中查找此笔记本和更多示例。