使用控制台部署已编译的模型 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

使用控制台部署已编译的模型

您必须满足先决条件部分,如果模型是使用Amazon SDK for Python (Boto3),Amazon CLI或 Amazon SageMaker 控制台。按照以下步骤使用 SageMaker 控制台创建和部署 SageMaker 新编译的模型https://console.aws.amazon.com/ SageMaker.

部署模型

在您满意先决条件,请执行以下步骤来部署使用 Neo 编译的模型:

  1. 选择模型,然后选择创建模型来自 的推理组中)。在存储库的创建模型页面上,完成模型名称IAM 角色, 和VPC字段(可选),如果需要。

    
                            创建用于推断的 Neo 模型
  2. 要添加有关用于部署模型的容器的信息,请选择 Add (选择添加容器容器,然后选择下一步. 填写 Container input options (容器输入选项)Location of inference code image (推理代码映像位置)Location of model artifacts (模型构件位置) 以及可选的 Container host name (容器主机名)Environmental variables (环境变量) 字段。

    
                            创建用于推断的 Neo 模型
  3. 要部署 Neo 编译的模型,请选择以下内容:

    • 容器输入选项:选择提供模型项目和推理图像.

    • 推断代码图像的位置:选择推理图像 URINeo 推理容器图像,这取决于Amazon区域和应用类型。

    • 模型工件的位置:输入 Neo 编译 API 生成的已编译模型构件的 Amazon S3 存储桶 URI。

    • 环境变量

      • 将此字段留空SageMaker obost.

      • 如果使用 SageMaker 训练模型,请指定环境变量SAGEMAKER_SUBMIT_DIRECTORY作为包含训练脚本的 Amazon S3 存储桶 URI。

      • 如果未使用 SageMaker 训练模型,请指定以下环境变量:

        密钥 MxNet 和 PyTorch 的值 TensorFlow 值
        制造者计划 inference.py inference.py
        制作者 _ 提交目录 /选项/ml/模型/代码 /选项/ml/模型/代码
        集装箱日志级别 20 20
        制作者区域 <your region> <your region>
        毫秒 _ 默认 _ 响应 _ 超时 500 将 TF 的此字段留空
  4. 确认容器的信息准确无误,然后选择 Create model (创建模型)。在存储库的创建模型登录页面中,选择创建终端节点.

    
                            创建模型登录页面
  5. Create and configure endpoint (创建和配置终端节点) 图表中,指定 Endpoint name (终端节点名称)。适用于附加终端节点配置中,选择创建新的终端节点配置.

    
                            Neo 控制台创建和配置终端节点 UI。
  6. New endpoint configuration (新建终端节点配置) 页面中,指定 Endpoint configuration name (终端节点配置名称)

    
                            Neo 控制台新终端节点配置 UI。
  7. 选择编辑,然后指定正确的实例类型编辑生产变体页. Instance type (实例类型) 值必须与在编译作业中指定的值匹配。

    
                            Neo 控制台新终端节点配置 UI。
  8. 选择 Save

  9. 在存储库的新终端节点配置页面上,选择创建终端节点配置,然后选择创建终端节点.