本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
云实例
Amazon SageMaker Neo 为流行的机器学习框架(例如 TensorFlow、 PyTorch MXNet、等)提供编译支持。您可以将编译后的模型部署到云实例和 Amazon Inferentia 实例。有关支持的框架和实例类型的完整列表,请参阅支持的实例类型和框架。
您可以通过以下三种方式之一编译模型:通过 SageMaker AI 控制台或适用于 Python 的 SageMaker AI SDK。 Amazon CLI有关更多信息,请参阅使用 Neo 编译模型。编译完成后,您的模型构件将存储在您在编译作业期间指定的 Amazon S3 桶 URI 中。您可以使用适用于 Python 的 SageMaker AI SDK、、或 Amazon 控制台将编译后的模型部署到云实例和 Inferentia 实例。 适用于 Python (Boto3) 的 Amazon SDK Amazon CLI Amazon
如果您使用 Amazon CLI控制台或 Boto3 部署模型,则必须为主容器选择 Docker 镜像 Amazon ECR URI。有关 Amazon EC URIsR 的列表,请参阅 Neo 推理容器镜像。