云实例 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

云实例

Amazon SageMaker Neo 为 TensorFlow、PyTorch、MXNet 等常用的机器学习框架提供编译支持。您可以将编译后的模型部署到云实例,AmazonInferentia 的实例。有关支持的框架和实例类型的完整列表,请参阅支持的实例类型和框架.

您可以通过以下三种方式之一编译模型:Amazon CLI、SageMaker 控制台或适用于 Python 的 SageMaker 开发工具包。请参阅,使用 Neo 编译模型有关. 编译后,您的模型工件将存储在编译作业期间指定的 Amazon S3 存储桶 URI 中。您可以将编译后的模型部署到云实例,Amazon使用适用于 Python 的 SageMaker SDK 的推断实例,Amazon SDK for Python (Boto3)、Amazon CLI,或者Amazon控制台。

如果你使用部署模型Amazon CLI、控制台或 Boto3,您必须为主容器选择 Docker 映像 Amazon ECR URI。请参阅Neo 推理容器映像获取亚马逊 ECR URI 的列表。