调整自己的训练容器 - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

调整自己的训练容器

要运行您自己的训练模型,请使用亚马逊 SageMaker 培训工具包通过亚马逊 SageMaker 笔记本实例构建 Docker 容器。

步骤 1:创建 SageMaker 笔记本实例

  1. 打开亚马逊 SageMaker 控制台,网址为 https://console.aws.amazon.com/sagemaker/

  2. 在左侧导航窗格中,依次选择笔记本笔记本实例创建笔记本实例

  3. 创建笔记本实例页面上提供以下信息:

    1. 对于 Notebook instance name (笔记本实例名称),输入 RunScriptNotebookInstance

    2. 对于笔记本实例类型,选择 ml.t2.medium

    3. 展开权限和加密部分,执行以下操作:

      1. 对于 IAM Role (IAM 角色),选择 Create a new role (创建新角色)。这将打开一个新窗口。

      2. 创建 IAM 角色页面上,选择特定的 S3 存储桶,指定一个名为 sagemaker-run-script 的 S3 存储桶,然后选择创建角色

        SageMaker 创建名为的 IAM 角色AmazonSageMaker-ExecutionRole-YYYYMMDDTHHmmSS。例如,AmazonSageMaker-ExecutionRole-20190429T110788。请注意,执行角色的命名约定会使用创建角色的日期和时间,由 T 分隔。

    4. 对于根访问,选择已启用

    5. 选择创建笔记本实例

  4. 笔记本实例页面上,状态待处理。Amazon 可能需要几分钟 SageMaker 才能启动机器学习计算实例(在本例中为启动笔记本实例)并向其连接 ML 存储卷。笔记本实例有一个预配置的 Jupyter 笔记本服务器和一组 Anaconda 库。有关更多信息,请参阅 CreateNotebookInstance

  5. 单击您刚刚创建的笔记本的名称。这将打开一个新页面。

  6. 权限和加密部分,复制 IAM 角色 ARN 编号,然后将其粘贴到记事本文件中以临时保存。稍后,您将使用此 IAM 角色 ARN 编号,在笔记本实例中配置本地训练估算器。The IAM role ARN number (IAM 角色 ARN 编号) 如下所示:'arn:aws:iam::111122223333:role/service-role/AmazonSageMaker-ExecutionRole-20190429T110788'

  7. 笔记本实例的状态更改为后 InService,选择打开 JupyterLab

步骤 2:创建并上传 Dockerfile 和 Python 训练脚本

  1. JupyterLab 打开后,在您的主目录中创建一个新文件夹 JupyterLab。在左上角,选择新建文件夹图标,然后输入文件夹名称 docker_test_folder

  2. docker_test_folder 目录中创建 Dockerfile 文本文件。

    1. 选择左上角的新启动程序图标 (+)。

    2. 在右窗格的其他部分下,选择文本文件

    3. 将以下 Dockerfile 示例代码粘贴到您的文本文件中。

      #Download an open source TensorFlow Docker image FROM tensorflow/tensorflow:latest-gpu-jupyter # Install sagemaker-training toolkit that contains the common functionality necessary to create a container compatible with SageMaker and the Python SDK. RUN pip3 install sagemaker-training # Copies the training code inside the container COPY train.py /opt/ml/code/train.py # Defines train.py as script entrypoint ENV SAGEMAKER_PROGRAM train.py

      Dockerfile 脚本将执行以下任务:

      • FROM tensorflow/tensorflow:latest-gpu-jupyter— 下载最新的 TensorFlow Docker 基础镜像。您可以将其替换为要用于构建容器的任何 Docker 基础镜像以及 Amazon 预先构建的容器基础镜像。

      • RUN pip install sagemaker-training— 安装SageMaker培训工具包,其中包含创建与之兼容的容器所需的常用功能 SageMaker。

      • COPY train.py /opt/ml/code/train.py— 将脚本复制到容器内预期的位置 SageMaker。该脚本必须位于此文件夹中。

      • ENV SAGEMAKER_PROGRAM train.py – 以您的训练脚本 train.py 作为入口点脚本,复制到容器的 /opt/ml/code 文件夹中。这是在您构建自己的容器时唯一必须指定的环境变量。

    4. 在左侧目录导航窗格中,文本文件可能会自动命名为 untitled.txt。要重命名文件,请右键单击该文件,然后选择重命名,将文件重命名为没有 .txt 扩展名的 Dockerfile,然后按 Ctrl+sCommand+s 以保存文件。

  3. 将训练脚本 train.py 上传到 docker_test_folder。对于本练习,您可以使用以下示例脚本创建在 MNIST 数据集上训练的模型来读取手写数字。

    import tensorflow as tf import os mnist = tf.keras.datasets.mnist (x_train, y_train), (x_test, y_test) = mnist.load_data() x_train, x_test = x_train / 255.0, x_test / 255.0 model = tf.keras.models.Sequential([ tf.keras.layers.Flatten(input_shape=(28, 28)), tf.keras.layers.Dense(128, activation='relu'), tf.keras.layers.Dropout(0.2), tf.keras.layers.Dense(10, activation='softmax') ]) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) model.fit(x_train, y_train, epochs=1) model_save_dir = f"{os.environ.get('SM_MODEL_DIR')}/1" model.evaluate(x_test, y_test) tf.saved_model.save(model, model_save_dir)

步骤 3:构建容器

  1. 在 JupyterLab 主目录中,打开 Jupyter 笔记本。要打开新笔记本,请选择新启动图标,然后在笔记本部分选择 conda_tensorflow2

  2. 在第一个笔记本单元格中运行以下命令,以便更改到 docker_test_folder 目录:

    cd ~/SageMaker/docker_test_folder

    这会将您返回到当前目录,如下所示。

    ! pwd

    output: /home/ec2-user/SageMaker/docker_test_folder

  3. 要构建 Docker 容器,请运行以下 Docker 构建命令,包括末尾句点后的空格:

    ! docker build -t tf-custom-container-test .

    Docker 构建命令必须从您创建的 Docker 目录运行,在此例中为 docker_test_folder

    注意

    如果您收到以下错误消息,提示 Docker 找不到 Dockerfile,请确保 Dockerfile 的名称正确并已保存到目录中。

    unable to prepare context: unable to evaluate symlinks in Dockerfile path: lstat /home/ec2-user/SageMaker/docker/Dockerfile: no such file or directory

    请记住,docker 在当前目录中查找名为 Dockerfile 的文件,没有任何扩展名。如果您将其改为其他名称,可以使用 -f 标记手动传入文件名。例如,如果您将 Dockerfile 命名为 Dockerfile-text.txt,请运行以下命令:

    ! docker build -t tf-custom-container-test -f Dockerfile-text.txt .

步骤 4:测试容器

  1. 要在笔记本实例中本地测试容器,请打开 Jupyter 笔记本。选择新启动程序,然后在笔记本部分选择 conda_tensorflow2 的最新版本。

  2. 将以下示例脚本粘贴到笔记本代码单元中以配置 SageMaker 估算器。

    import sagemaker from sagemaker.estimator import Estimator estimator = Estimator(image_uri='tf-custom-container-test', role=sagemaker.get_execution_role(), instance_count=1, instance_type='local') estimator.fit()

    在前面的代码示例中sagemaker.get_execution_role(),指定给role参数以自动检索为会 SageMaker 话设置的角色。您也可以将其替换为在配置笔记本实例时使用的 IAM 角色 ARN 编号的字符串值。ARN 应如下所示:'arn:aws:iam::111122223333:role/service-role/AmazonSageMaker-ExecutionRole-20190429T110788'

  3. 运行代码单元。该测试输出训练环境配置、用于环境变量的值、数据源以及训练期间获得的损失和准确率。

步骤 5:将容器推送至 Amazon Elastic Container Registry (Amazon ECR)

  1. 成功运行本地模式测试后,您可以将 Docker 容器推送到 Amazon ECR 并用它来运行训练作业。如果您想使用私有 Docker 注册表而不是 Amazon ECR,请参阅将您的训练容器推送到私有注册表

    在笔记本单元格中运行以下命令行。

    %%sh # Specify an algorithm name algorithm_name=tf-custom-container-test account=$(aws sts get-caller-identity --query Account --output text) # Get the region defined in the current configuration (default to us-west-2 if none defined) region=$(aws configure get region) region=${region:-us-west-2} fullname="${account}.dkr.ecr.${region}.amazonaws.com/${algorithm_name}:latest" # If the repository doesn't exist in ECR, create it. aws ecr describe-repositories --repository-names "${algorithm_name}" > /dev/null 2>&1 if [ $? -ne 0 ] then aws ecr create-repository --repository-name "${algorithm_name}" > /dev/null fi # Get the login command from ECR and execute it directly aws ecr get-login-password --region ${region}|docker login --username AWS --password-stdin ${fullname} # Build the docker image locally with the image name and then push it to ECR # with the full name. docker build -t ${algorithm_name} . docker tag ${algorithm_name} ${fullname} docker push ${fullname}
    注意

    此 bash shell 脚本可能会引发权限问题,类似于以下错误消息:

    "denied: User: [ARN] is not authorized to perform: ecr:InitiateLayerUpload on resource: arn:aws:ecr:us-east-1:[id]:repository/tf-custom-container-test"

    如果出现此错误,您需要将 AmazonEC2 ContainerRegistryFullAccess 策略附加到您的 IAM 角色。转到 IAM 控制台,从左侧导航窗格中选择角色,查找您用于笔记本实例的 IAM 角色。在 “权限” 选项卡下,选择 “附加策略” 按钮,然后搜索 AmazonEC2 ContainerRegistryFullAccess 政策。选中策略的复选框,选择附加策略以完成操作。

  2. 在 Studio 笔记本单元格中运行以下代码,调用您的训练容器的 Amazon ECR 映像。

    import boto3 account_id = boto3.client('sts').get_caller_identity().get('Account') ecr_repository = 'tf-custom-container-test' tag = ':latest' region = boto3.session.Session().region_name uri_suffix = 'amazonaws.com' if region in ['cn-north-1', 'cn-northwest-1']: uri_suffix = 'amazonaws.com.cn' byoc_image_uri = '{}.dkr.ecr.{}.{}/{}'.format(account_id, region, uri_suffix, ecr_repository + tag) byoc_image_uri # This should return something like # 111122223333.dkr.ecr.us-east-2.amazonaws.com/sagemaker-byoc-test:latest
  3. 使用从上一步中ecr_image检索到的来配置 SageMaker 估算器对象。以下代码示例使用配置 SageMaker 估算器byoc_image_uri并在 Amazon EC2 实例上启动训练作业。

    SageMaker Python SDK v1
    import sagemaker from sagemaker import get_execution_role from sagemaker.estimator import Estimator estimator = Estimator(image_uri=byoc_image_uri, role=get_execution_role(), base_job_name='tf-custom-container-test-job', instance_count=1, instance_type='ml.g4dn.xlarge') #train your model estimator.fit()
    SageMaker Python SDK v2
    import sagemaker from sagemaker import get_execution_role from sagemaker.estimator import Estimator estimator = Estimator(image_uri=byoc_image_uri, role=get_execution_role(), base_job_name='tf-custom-container-test-job', instance_count=1, instance_type='ml.g4dn.xlarge') #train your model estimator.fit()
  4. 如果您要使用自己的容器部署模型,请参阅调整自己的推理容器。您也可以使用可以部署 TensorFlow 模型的 Amazon框架容器。要部署示例模型以读取手写数字,请对您在上一个子步骤中用于训练模型的同一个笔记本,输入以下示例脚本,以获取部署所需的映像 URI(Universal Resource Identifier,通用资源标识符),然后部署模型。

    import boto3 import sagemaker #obtain image uris from sagemaker import image_uris container = image_uris.retrieve(framework='tensorflow',region='us-west-2',version='2.11.0', image_scope='inference',instance_type='ml.g4dn.xlarge') #create the model entity, endpoint configuration and endpoint predictor = estimator.deploy(1,instance_type='ml.g4dn.xlarge',image_uri=container)

    通过以下代码示例,使用 MNIST 数据集中的手写数字样本测试您的模型。

    #Retrieve an example test dataset to test import numpy as np import matplotlib.pyplot as plt from keras.datasets import mnist # Load the MNIST dataset and split it into training and testing sets (x_train, y_train), (x_test, y_test) = mnist.load_data() # Select a random example from the training set example_index = np.random.randint(0, x_train.shape[0]) example_image = x_train[example_index] example_label = y_train[example_index] # Print the label and show the image print(f"Label: {example_label}") plt.imshow(example_image, cmap='gray') plt.show()

    将测试手写数字转换为 TensorFlow 可以提取并进行测试预测的形式。

    from sagemaker.serializers import JSONSerializer data = {"instances": example_image.tolist()} predictor.serializer=JSONSerializer() #update the predictor to use the JSONSerializer predictor.predict(data) #make the prediction

有关展示如何在本地测试自定义容器并将其推送到 Amazon ECR 映像的完整示例,请参阅构建自己的 TensorFlow 容器示例笔记本。

提示

要分析和调试训练作业以监控系统利用率问题(例如 CPU 瓶颈和 GPU 利用率不足)并识别训练问题(例如过度拟合、过度训练、张量爆炸和梯度消失),请使用 Amazon Debugger。 SageMaker 有关更多信息,请参阅将 Debugger 与自定义训练容器配合使用

步骤 6:清理资源

在完成“开始使用”示例后清理资源
  1. 打开SageMaker 控制台,选择笔记本实例 RunScriptNotebookInstance,选择操作,然后选择停止。停止实例可能需要几分钟时间。

  2. 在实例状态更改为已停止之后,选择操作,选择删除,然后在对话框中选择删除。删除实例可能需要几分钟时间。删除后,笔记本实例将从表中消失。

  3. 打开 Amazon S3 控制台并删除为存储模型构件和训练数据集创建的存储桶。

  4. 打开 IAM 控制台,然后删除 IAM 角色。如果您已创建权限策略,也可以将其删除。

    注意

    Docker 容器在运行后会自动关闭。您不需要删除该容器。

博客和案例研究

以下博客讨论了有关在 Amazon 中使用自定义训练容器的案例研究 SageMaker。