请求来自已部署服务(Amazon SageMaker 开发工具包)的推理 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

请求来自已部署服务(Amazon SageMaker 开发工具包)的推理

使用以下代码示例,根据您用于训练模型的框架,请求部署的服务进行推断。不同框架的代码示例是相似的。主要区别在于,TensorFlow 需要application/json作为内容类型。

PyTorch 和 MxNet

如果您正在使用PyTorch v1.4 或更高版本或者MXNet 1.7.0 或更高版本并且您拥有 Amazon SageMaker 终端节点InService,您可以使用predictor软件包。

注意

API 根据适用于 Python 的 SageMaker 软件开发工具包的不同版本而有所不同:

以下代码示例说明如何使用这些 API 发送图像以进行推理:

SageMaker Python SDK v1.x
from sagemaker.predictor import RealTimePredictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = RealTimePredictor(endpoint=endpoint, content_type='application/x-image') inference_response = predictor.predict(data=payload) print (inference_response)
SageMaker Python SDK v2.x
from sagemaker.predictor import Predictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = Predictor(endpoint) inference_response = predictor.predict(data=payload) print (inference_response)

TensorFlow

以下代码示例说明如何使用 SageMaker Python 开发工具包 API 发送图像以进行推理:

from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint = 'insert the name of your endpoint here' # Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)