本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
HyperPod Slurm cluster peft-Lora 教程 (GPU)
以下教程设置了 Slurm 环境,并在 Llama 80 亿参数模型上启动参数高效微调 (PEFT) 作业。
先决条件
在开始设置环境之前,请确保:
-
设置 HyperPod GPU Slurm 集群
-
你的 HyperPod Slurm 集群必须启用 Nvidia Enroot 和 Pyxis(默认情况下它们处于启用状态)。
-
-
共享存储位置。它可以是可从群集节点访问的 Amazon FSx 文件系统或 NFS 系统。
-
以下格式之一的数据:
-
JSON
-
JSONGZ(压缩 JSON)
-
箭头
-
-
(可选)如果您需要预先训练的权重, HuggingFace 或者您正在训练 Llama 3.2 模型,则必须在开始训练之前获取 HuggingFace 代币。有关获取令牌的更多信息,请参阅用户访问令牌
。
设置 HyperPod GPU Slurm 环境
要在 Slurm 集群上启动训练作业,请执行以下操作:
-
通过 SSH 进入你的 Slurm 集群的主节点。
-
登录后,设置虚拟环境。确保你使用的是 Python 3.9 或更高版本。
#set up a virtual environment python3 -m venv ${PWD}/venv source venv/bin/activate
-
将 SageMaker HyperPod 配方和 SageMaker HyperPod 适配器存储库克隆到共享存储位置。共享存储位置可以是可从群集节点访问的 Amazon FSx 文件系统或 NFS 系统。
git clone https://github.com/aws/sagemaker-hyperpod-training-adapter-for-nemo.git git clone --recursive https://github.com/aws/sagemaker-hyperpod-recipes.git cd sagemaker-hyperpod-recipes pip3 install -r requirements.txt
-
使用 Enroot 创建一个压缩文件。要查找 SMP 容器的最新版本,请参阅 SageMaker 模型并行度库的发行说明。有关使用 Enroot 文件的更多信息,请参阅构建 Amazon经过优化的 Nemo-
Launcher 镜像。 REGION="
<region>
" IMAGE="658645717510.dkr.ecr.${REGION}.amazonaws.com/smdistributed-modelparallel:2.4.1-gpu-py311-cu121" aws ecr get-login-password --region ${REGION} | docker login --username AWS --password-stdin 658645717510.dkr.ecr.${REGION}.amazonaws.com enroot import -o $PWD/smdistributed-modelparallel.sqsh dockerd://${IMAGE} mv $PWD/smdistributed-modelparallel.sqsh "/fsx/<any-path-in-the-shared-filesystem>
" -
要使用 Enroot squash 文件开始训练,请使用以下示例修改该
recipes_collection/config.yaml
文件。container: /fsx/path/to/your/smdistributed-modelparallel.sqsh
启动训练作业
要在单个 Slurm 计算节点上启动序列长度为 8192 的 Llama 80 亿参数模型的 PEFT 作业,请将启动脚本设置为以下内容:launcher_scripts/llama/run_hf_llama3_8b_seq8k_gpu_lora.sh
-
IMAGE
: 环境设置部分中的容器。 -
HF_MODEL_NAME_OR_PATH
:在配方的 hf_model_name_or_path 参数中定义预训练权重的名称或路径。 -
(可选)如果您需要预先训练的权重,则 HuggingFace 可以通过设置以下键值对来提供 HuggingFace 标记:
recipes.model.hf_access_token=${
HF_ACCESS_TOKEN
}
#!/bin/bash IMAGE="${YOUR_IMAGE}" SAGEMAKER_TRAINING_LAUNCHER_DIR="${SAGEMAKER_TRAINING_LAUNCHER_DIR:-${PWD}}" TRAIN_DIR="${YOUR_TRAIN_DIR}" # Location of training dataset VAL_DIR="${YOUR_VAL_DIR}" # Location of validation dataset # experiment output directory EXP_DIR="${
YOUR_EXP_DIR
}" HF_ACCESS_TOKEN="${YOUR_HF_TOKEN
}" HF_MODEL_NAME_OR_PATH="${YOUR_HF_MODEL_NAME_OR_PATH
}" # Add hf_model_name_or_path and turn off synthetic_data HYDRA_FULL_ERROR=1 python3 ${SAGEMAKER_TRAINING_LAUNCHER_DIR}/main.py \ recipes=fine-tuning/llama/hf_llama3_8b_seq8k_gpu_lora \ base_results_dir=${SAGEMAKER_TRAINING_LAUNCHER_DIR}/results \ recipes.run.name="hf_llama3_lora" \ recipes.exp_manager.exp_dir="$EXP_DIR" \ recipes.model.data.train_dir="$TRAIN_DIR" \ recipes.model.data.val_dir="$VAL_DIR" \ recipes.model.hf_model_name_or_path="$HF_MODEL_NAME_OR_PATH" \ container="${IMAGE}" \ +cluster.container_mounts.0="/fsx:/fsx" \ recipes.model.hf_access_token="${HF_ACCESS_TOKEN}"
在前面的脚本中配置完所有必需的参数后,就可以通过运行训练作业来启动训练作业。
bash launcher_scripts/llama/run_hf_llama3_8b_seq8k_gpu_lora.sh
有关 Slurm 集群配置的更多信息,请参阅。在 HyperPod Slurm 上运行训练作业