本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
监督式微调(SFT)
SFT 培训过程包括两个主要阶段:
-
数据准备:按照既定指导方针创建、清理数据集或将数据集重新格式化为所需的结构。确保输入、输出和辅助信息(例如推理轨迹或元数据)正确对齐和格式化。
-
训练配置:定义模型的训练方式。使用时 SageMaker HyperPod,此配置写在 YAML 配方文件中,其中包括:
-
数据源路径(训练和验证数据集)
-
关键超参数(时代、学习率、批次大小)
-
可选组件(分布式训练参数等)
-
Nova 型号比较和选择
Amazon Nova 2.0 是在比 Amazon Nova 1.0 更大、更多样化的数据集上训练的模型。重要改进包括:
-
通过显式@@ 推理模式支持增强推理能力
-
在其他@@ 语言中实现更广泛的多语言性能
-
提高了包括编码和工具使用在内的复杂任务的性能
-
扩展了上下文处理,在较长的上下文长度下具有更好的准确性和稳定性
何时使用 Nova 1.0 与 Nova 2.0
在以下情况下选择亚马逊 Nova 2.0:
-
需要具有高级推理能力的卓越性能
-
需要多语言支持或复杂的任务处理
-
需要在编码、工具调用或分析任务方面取得更好的结果
在以下情况下选择亚马逊 Nova 1.0:
-
该用例需要标准的语言理解,无需高级推理
-
性能已经在 Amazon Nova 1.0 上进行了验证,不需要其他功能