

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 部署模型
<a name="neo-deployment-hosting-services"></a>

要将 Amazon SageMaker Neo 编译的模型部署到 HTTPS 终端节点，您必须使用 Amazon A SageMaker I 托管服务为该模型配置和创建终端节点。目前，开发人员可以使用亚马逊 SageMaker APIs 在 ml.c5、ml.c4、ml.m5、ml.m4、ml.p3、ml.p2 和 ml.inf1 实例上部署模块。

对于 [Inferentia](https://www.amazonaws.cn/machine-learning/inferentia/) 和 [Trainium](https://www.amazonaws.cn/machine-learning/trainium/) 实例，需要专门针对这些实例对模型进行编译。不保证为其他实例类型编译的模型能够与 Inferentia 或 Trainium 实例配合使用。

部署编译的模型时，您需要为用于编译的目标使用相同的实例。这将创建可用于执行推断的 SageMaker AI 终端节点。[您可以使用以下任一方法部署 Neo 编译模型：适用于 [Python 的亚马逊 A SageMaker I SDK、适用于 P](https://sagemaker.readthedocs.io/en/stable/)[ython 的软件开发工具包 ([Amazon Command Line Interface](https://docs.amazonaws.cn/cli/latest/reference/)](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html)Boto3) 和 AI 控制台。SageMaker ](https://console.amazonaws.cn/sagemaker)

**注意**  
要使用 Amazon CLI控制台或 Boto3 部署模型，请参阅 [Neo 推理容器镜像，为主容器选择推理图像](https://docs.amazonaws.cn/sagemaker/latest/dg/neo-deployment-hosting-services-container-images.html) URI。

**Topics**
+ [先决条件](neo-deployment-hosting-services-prerequisites.md)
+ [使用 SageMaker SDK 部署编译后的模型](neo-deployment-hosting-services-sdk.md)
+ [使用 Boto3 部署编译的模型](neo-deployment-hosting-services-boto3.md)
+ [使用部署编译后的模型 Amazon CLI](neo-deployment-hosting-services-cli.md)
+ [使用控制台部署编译的模型](neo-deployment-hosting-services-console.md)