使用控制台部署编译的模型 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

使用控制台部署编译的模型

如果您是使用 Amazon SDK for Python (Boto3)、Amazon CLI 或 Amazon SageMaker 控制台编译模型,则必须满足先决条件部分中的要求。按照以下步骤,使用 SageMaker 控制台创建和部署 SageMaker Neo 编译的模型:https://console.aws.amazon.com/ SageMaker

部署模型

满足先决条件后,使用以下步骤部署使用 Neo 编译的模型:

  1. 选择模型,然后从推理组中选择创建模型。在创建模型页面上,根据需要填写模型名称IAM 角色以及 VPC 字段(可选)。

    
                            创建 Neo 模型用于推理
  2. 要添加用于部署模型的容器的相关信息,请选择添加容器,然后选择下一步。填写 Container input options (容器输入选项)Location of inference code image (推理代码映像位置)Location of model artifacts (模型构件位置) 以及可选的 Container host name (容器主机名)Environmental variables (环境变量) 字段。

    
                            创建 Neo 模型用于推理
  3. 要部署 Neo 编译的模型,请选择以下内容:

    • 容器输入选项:选择提供模型构件和推理映像

    • 推理代码映像的位置:根据 Amazon 区域和应用程序类型,从 Neo 推理容器映像中选择推理映像 URI。

    • 模型构件位置:输入 Neo 编译 API 生成的、已编译模型构件的 Amazon S3 存储桶 URI。

    • 环境变量

      • 对于 SageMaker XGBoost,将此字段留空。

      • 如果您是使用 SageMaker 训练模型,请指定环境变量 SAGEMAKER_SUBMIT_DIRECTORY 作为包含训练脚本的 Amazon S3 存储桶 URI。

      • 如果您没有使用 SageMaker 训练模型,请指定以下环境变量:

        MXNet 和 PyTorch 的值 TensorFlow 的值
        SAGEMAKER_PROGRAM inference.py inference.py
        SAGEMAKER_SUBMIT_DIRECTORY /opt/ml/model/code /opt/ml/model/code
        SAGEMAKER_CONTAINER_LOG_LEVEL 20 20
        SAGEMAKER_REGION <您的区域> <您的区域>
        MMS_DEFAULT_RESPONSE_TIMEOUT 500 对于 TF,将此字段留空。
  4. 确认容器的信息准确无误,然后选择 Create model (创建模型)。在创建模型登录页面上,选择创建端点

    
                            创建模型登录页面
  5. Create and configure endpoint (创建和配置端点) 图表中,指定 Endpoint name (端点名称)。对于连接端点配置,请选择创建新端点配置

    
                            Neo 控制台的创建和配置端点 UI。
  6. New endpoint configuration (新建端点配置) 页面中,指定 Endpoint configuration name (端点配置名称)

    
                            Neo 控制台的新建端点配置 UI。
  7. 选择模型名称旁的编辑,然后在编辑生产变体页面上指定正确的实例类型Instance type (实例类型) 值必须与在编译作业中指定的值匹配。

    
                            Neo 控制台的新建端点配置 UI。
  8. 选择保存

  9. 新建端点配置页面上,选择创建端点配置,然后选择创建端点