文本分类- TensorFlow - Amazon SageMaker
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

文本分类- TensorFlow

Amazon SageMaker 文本分类- TensorFlow 算法是一种监督学习算法,它支持使用来自TensorFlow 中心的许多预训练模型进行迁移学习。使用迁移学习,即使没有大量文本数据可用,也可以在您自己的数据集上对一个可用的预先训练模型进行微调。文本分类算法将文本字符串作为输入,并输出每个类标签的概率。训练数据集必须为 CSV 格式。

如何使用 SageMaker 文本分类- TensorFlow 算法

您可以使用文本分类- TensorFlow 作为 Amazon 的 SageMaker 内置算法。以下部分介绍如何在 SageMaker Python SDK 中 TensorFlow 使用文本分类。有关如何使用 Amazon SageMaker Studio 经典版用户界面中的文本分类的信息,请参阅SageMaker JumpStart。 TensorFlow

文本分类- TensorFlow 算法支持使用任何兼容的预训练 TensorFlow 模型进行迁移学习。有关所有可用的预先训练模型的列表,请参阅 TensorFlow 集线器型号。每个预先训练的模型都有独特的 model_id。以下示例使用 BERT Base Uncased(model_idtensorflow-tc-bert-en-uncased-L-12-H-768-A-12-2)在自定义数据集上进行微调。预训练的模型都是从 TensorFlow Hub 预先下载的,并存储在 Amazon S3 存储桶中,这样训练作业就可以在网络隔离的情况下运行。使用这些预生成的模型训练工件来构造 SageMaker 估算器。

首先,检索 Docker 映像 URI、训练脚本 URI 和预先训练模型 URI。然后,根据需要更改超参数。您可以使用 hyperparameters.retrieve_default 查看包含所有可用超参数及其默认值的 Python 字典。有关更多信息,请参阅文本分类- TensorFlow 超参数。使用这些值来构造 SageMaker 估算器。

注意

不同模型具有不同的默认超参数值。例如,对于较大的模型,默认批量大小较小。

此示例使用 SST2 数据集,其中包含正面和负面的电影评论。我们预先下载了数据集,并将其存储在 Amazon S3 中供使用。要对模型进行微调,请使用训练数据集的 Amazon S3 位置调用 .fit。笔记本中使用的任何 S3 存储桶都必须与访问该存储桶的笔记本实例位于同一 Amazon 区域。

from sagemaker import image_uris, model_uris, script_uris, hyperparameters from sagemaker.estimator import Estimator model_id, model_version = "tensorflow-tc-bert-en-uncased-L-12-H-768-A-12-2", "*" training_instance_type = "ml.p3.2xlarge" # Retrieve the Docker image train_image_uri = image_uris.retrieve(model_id=model_id,model_version=model_version,image_scope="training",instance_type=training_instance_type,region=None,framework=None) # Retrieve the training script train_source_uri = script_uris.retrieve(model_id=model_id, model_version=model_version, script_scope="training") # Retrieve the pretrained model tarball for transfer learning train_model_uri = model_uris.retrieve(model_id=model_id, model_version=model_version, model_scope="training") # Retrieve the default hyperparameters for fine-tuning the model hyperparameters = hyperparameters.retrieve_default(model_id=model_id, model_version=model_version) # [Optional] Override default hyperparameters with custom values hyperparameters["epochs"] = "5" # Sample training data is available in this bucket training_data_bucket = f"jumpstart-cache-prod-{aws_region}" training_data_prefix = "training-datasets/SST2/" training_dataset_s3_path = f"s3://{training_data_bucket}/{training_data_prefix}" output_bucket = sess.default_bucket() output_prefix = "jumpstart-example-tc-training" s3_output_location = f"s3://{output_bucket}/{output_prefix}/output" # Create an Estimator instance tf_tc_estimator = Estimator( role=aws_role, image_uri=train_image_uri, source_dir=train_source_uri, model_uri=train_model_uri, entry_point="transfer_learning.py", instance_count=1, instance_type=training_instance_type, max_run=360000, hyperparameters=hyperparameters, output_path=s3_output_location, ) # Launch a training job tf_tc_estimator.fit({"training": training_dataset_s3_path}, logs=True)

有关如何使用 SageMaker 文本分类- TensorFlow 算法对自定义数据集进行迁移学习的更多信息,请参阅《文本分类简介》笔记本。 JumpStart

文本分类- TensorFlow 算法的输入和输出接口

TensorFlow Hub Models 中列出的每个预训练模型都可以微调到任何由带有任意数量类的文本句子组成的数据集。预先训练模型将分类层附加到文本嵌入模型,并将层参数初始化为随机值。根据在输入数据中检测到的类别数量来确定分类层的输出维度。

请注意如何设置训练数据的格式,以便输入到文本分类- TensorFlow 模型中。

  • 训练数据输入格式:包含 data.csv 文件的目录。第一列的每一行都应有一个整数型的类标签,其值介于 0 和类数量之间。第二列的每一行都应有对应的文本数据。

以下是输入 CSV 文件的示例:请注意,该文件不应有任何标题。文件应托管在 Amazon S3 存储桶中,路径类似于如下所示:s3://bucket_name/input_directory/。请注意,结尾的 / 是必需的。

| | | |---|---| |0 |hide new secretions from the parental units| |0 |contains no wit , only labored gags| |1 |that loves its characters and communicates something rather beautiful about human nature| |...|...|

增量训练

您可以使用以前训练过的模型中的工件为新模型的训练做种子 SageMaker。当您想训练具有相同或类似数据的新模型时,这种增量训练可节省训练时间。

注意

您只能为 SageMaker 文本分类(带有另一种文本分类的 TensorFlow 模型)进行种子训练 SageMaker。 TensorFlow

只要类别集合保持不变,就可以使用任何数据集进行增量训练。增量训练步骤与微调步骤类似,但不是使用预先训练的模型开始,而是从现有的微调模型开始。

有关使用 SageMaker 文本分类 TensorFlow 算法进行增量训练的更多信息,请参阅 “文本分类简介” 示例笔记本。 JumpStart

使用文本分类进行推理- TensorFlow 算法

您可以托管 TensorFlow 文本分类训练产生的微调模型以进行推理。用于推理的任何原始文本格式都必须是内容类型 application/x-text

运行推理会生成概率值、所有类的类标签以及与概率最高的类索引对应的预测标签,这些标签以 JSON 格式编码。文本分类- TensorFlow 模型为每个请求处理一个字符串,并且仅输出一行。以下是 JSON 格式响应的示例:

accept: application/json;verbose {"probabilities": [prob_0, prob_1, prob_2, ...], "labels": [label_0, label_1, label_2, ...], "predicted_label": predicted_label}

如果 accept 设置为 application/json,则模型仅输出概率。

针对文本分类的 Amazon EC2 实例推荐- TensorFlow 算法

文本分类- TensorFlow 算法支持所有 CPU 和 GPU 实例进行训练,包括:

  • ml.p2.xlarge

  • ml.p2.16xlarge

  • ml.p3.2xlarge

  • ml.p3.16xlarge

  • ml.g4dn.xlarge

  • ml.g4dn.16.xlarge

  • ml.g5.xlarge

  • ml.g5.48xlarge

对于大批量训练,建议使用具有更多内存的 GPU 实例。CPU(例如 M5)实例和 GPU(P2、P3、G4dn 或 G5)实例都可用于推理。有关各 Amazon 区域 SageMaker 训练和推理实例的完整列表,请参阅 Amazon SageMaker 定价

文本分类- TensorFlow 样本笔记本

有关如何使用 SageMaker 文本分类- TensorFlow 算法对自定义数据集进行迁移学习的更多信息,请参阅《文本分类简介》笔记本。 JumpStart

有关如何创建和访问可用于在中运行示例的 Jupyter 笔记本实例的说明 SageMaker,请参阅。Amazon SageMaker 笔记本实例创建并打开笔记本实例后,选择 “SageMaker示例” 选项卡以查看所有 SageMaker 示例的列表。要打开笔记本,请选择其使用选项卡,然后选择创建副本