云实例 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

云实例

Amazon SageMaker Neo 为 TensorFlow、PyTorch、MXNet 等常用的机器学习框架提供编译支持。您可以将编译后的模型部署到云实例和 Amazon Inferentia 实例。有关支持的框架和实例类型的完整列表,请参阅支持的实例类型和框架

您可以通过以下三种方式之一编译模型:Amazon CLI、SageMaker 控制台或适用于 Python 的 SageMaker SDK。有关更多信息,请参阅使用 Neo 编译模型。编译完成后,您的模型构件将存储在您在编译作业期间指定的 Amazon S3 桶 URI 中。您可以使用适用于 Python 的 SageMaker SDK、Amazon SDK for Python (Boto3)、Amazon CLI 或 Amazon 控制台,将编译后的模型部署到云实例和 Amazon Inferentia 实例。

如果您使用 Amazon CLI、控制台或 Boto3 部署模型,则必须为主容器选择 Docker 映像 Amazon ECR URI。有关 Amazon ECR URI 的列表,请参阅 Neo 推理容器映像