监督式微调(SFT) - 亚马逊 SageMaker AI
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

监督式微调(SFT)

SFT 培训过程包括两个主要阶段:

  • 数据准备:按照既定指导方针创建、清理数据集或将数据集重新格式化为所需的结构。确保输入、输出和辅助信息(例如推理轨迹或元数据)正确对齐和格式化。

  • 训练配置:定义模型的训练方式。使用时 SageMaker HyperPod,此配置写在 YAML 配方文件中,其中包括:

    • 数据源路径(训练和验证数据集)

    • 关键超参数(时代、学习率、批次大小)

    • 可选组件(分布式训练参数等)

Nova 型号比较和选择

Amazon Nova 2.0 是在比 Amazon Nova 1.0 更大、更多样化的数据集上训练的模型。重要改进包括:

  • 通过显式@@ 推理模式支持增强推理能力

  • 在其他@@ 语言中实现更广泛的多语言性能

  • 提高了包括编码和工具使用在内的复杂任务的性能

  • 扩展了上下文处理,在较长的上下文长度下具有更好的准确性和稳定性

何时使用 Nova 1.0 与 Nova 2.0

在以下情况下选择亚马逊 Nova 2.0:

  • 需要具有高级推理能力的卓越性能

  • 需要多语言支持或复杂的任务处理

  • 需要在编码、工具调用或分析任务方面取得更好的结果

在以下情况下选择亚马逊 Nova 1.0:

  • 该用例需要标准的语言理解,无需高级推理

  • 性能已经在 Amazon Nova 1.0 上进行了验证,不需要其他功能