使用控制台部署已编译的模型 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

使用控制台部署已编译的模型

你必须满足先决条件部分是否使用编译模型Amazon SDK for Python (Boto3),Amazon CLI,或者亚马逊 SageMaker 控制台。按照以下步骤使用 SageMaker 控制台创建和部署 SageMaker 新编译模型https://console.aws.amazon.com/ SageMaker.

部署模型

在你满意之后先决条件中,使用以下步骤部署使用 Neo 编译的模型:

  1. 选择模型,然后选择创建模型来自 的推理组中)。在存储库的创建模型页面,完成模型名称IAM 角色, 和VPC如果需要,字段(可选)。

    
                            创建 Neo 模型进行推理
  2. 要添加有关用于部署模型的容器的信息,请选择添加容器容器,然后选择下一步. 填写 Container input options (容器输入选项)Location of inference code image (推理代码映像位置)Location of model artifacts (模型构件位置) 以及可选的 Container host name (容器主机名)Environmental variables (环境变量) 字段。

    
                            创建 Neo 模型进行推理
  3. 要部署 Neo 编译的模型,请选择以下内容:

    • 容器输入选项:选择提供模型构件和推理映像.

    • 推理代码图像的位置:从中选择推理图像 URINeo 推理容器映像,具体取决于Amazon地区和应用程序的种类。

    • 模型神器的位置:输入 Neo 编译 API 生成的已编译模型构件的 Amazon S3 存储桶 URI。

    • 环境变量

      • 将此字段留空SageMaker XGBoost.

      • 如果您使用 SageMaker 训练了模型,请指定环境变量SAGEMAKER_SUBMIT_DIRECTORY作为包含训练脚本的 Amazon S3 存储桶 URI。

      • 如果您没有使用 SageMaker 训练模型,请指定以下环境变量:

        密钥 MxNet 和 PyTorch 的值 TensorFlow
        SAGEMAKER_计划 inference.py inference.py
        SAGEMAKER_SUBMIT_目录 /opt/ml/模型/代码 /opt/ml/模型/代码
        SAGEMAKER_容器_LOG_LEVEL 20 20
        SAGEMAKER_区域 <your region> <your region>
        MMS_DEFAULT_响应SE_TIMEOUT 500 将此字段留空对于 TF
  4. 确认容器的信息准确无误,然后选择 Create model (创建模型)。在存储库的创建模型登录页面,选择创建端节点.

    
                            创建模型登录页面
  5. Create and configure endpoint (创建和配置终端节点) 图表中,指定 Endpoint name (终端节点名称)。适用于附加终端节点配,选择创建新终端节点配置.

    
                            Neo 控制台创建和配置终端节点 UI。
  6. New endpoint configuration (新建终端节点配置) 页面中,指定 Endpoint configuration name (终端节点配置名称)

    
                            Neo 控制台新终端节点配置 UI。
  7. 选择编辑在模型名称旁边并指定正确的实例类型编辑生产变体页. Instance type (实例类型) 值必须与在编译作业中指定的值匹配。

    
                            Neo 控制台新终端节点配置 UI。
  8. 选择 Save(保存)。

  9. 在存储库的新终端节点配置页面,选择创建端节点配置,然后选择创建端节点.