

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 云实例
<a name="neo-cloud-instances"></a>

Amazon SageMaker Neo 为 TensorFlow、PyTorch、MXNet 等常用的机器学习框架提供编译支持。您可以将编译后的模型部署到云实例和 Amazon Inferentia 实例。有关支持的框架和实例类型的完整列表，请参阅[支持的实例类型和框架](https://docs.amazonaws.cn/sagemaker/latest/dg/neo-supported-cloud.html)。

您可以通过以下三种方式之一编译模型：Amazon CLI、SageMaker AI 控制台或适用于 Python 的 SageMaker AI SDK。有关更多信息，请参阅[使用 Neo 编译模型](https://docs.amazonaws.cn/sagemaker/latest/dg/neo-job-compilation.html)。编译完成后，您的模型构件将存储在您在编译作业期间指定的 Amazon S3 桶 URI 中。您可以使用适用于 Python 的 SageMaker AI SDK、适用于 Python (Boto3) 的 Amazon SDK、Amazon CLI 或 Amazon 管理控制台，将编译后的模型部署到云实例和 Amazon Inferentia 实例。

如果您使用 Amazon CLI、控制台或 Boto3 部署模型，则必须为主容器选择 Docker 映像 Amazon ECR URI。有关 Amazon ECR URI 的列表，请参阅 [Neo 推理容器映像](https://docs.amazonaws.cn/sagemaker/latest/dg/neo-deployment-hosting-services-container-images.html)。

**Topics**
+ [支持的实例类型和框架](neo-supported-cloud.md)
+ [部署模型](neo-deployment-hosting-services.md)
+ [已部署服务的推理请求](neo-requests.md)
+ [推理容器映像](neo-deployment-hosting-services-container-images.md)