【LLaMa3微調】使用 LLaMA-Factory 微調LLaMA3
- 實驗環境
1.1 機器- 操作系統:Windows 10 或 Ubuntu
- PyTorch 版本:2.1.0
- Python 版本:3.10(針對Ubuntu 22.04)
- Cuda 版本:12.1
- GPU 配置:p100 (16GB) * 2
- CPU 配置:12 vCPU Intel? Xeon? Platinum 8352V CPU @ 2.10GHz
1.2 基座模型
- 基于中文數據訓練過的 LLaMA3 8B 模型:shenzhi-wang/Llama3-8B-Chinese-Chat
- 可選配置:hf 國內鏡像站,使用以下命令安裝和配置:
pip install -U huggingface_hub export HF_ENDPOINT=https://hf-mirror.com huggingface-cli download --resume-download shenzhi-wang/Llama3-8B-Chinese-Chat --local-dir /root/autodl-tmp/models/Llama3-8B-Chinese-Chat1
- LLaMA-Factory 框架
2.1 安裝
- 使用以下命令克隆并安裝LLaMA-Factory:
git clone https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e .
2.2 準備訓練數據
- 訓練數據示例:fruozhiba_qaswift_train.json,可以去魔搭社區下載
- 將訓練數據放置在 LLaMA-Factory/data/ 目錄下,例如:LLaMA-Factory/data/ruozhiba_qaswift_train.json
- 修改數據注冊文件:LLaMA-Factory/data/dataset_info.json,添加數據集的配置信息,例如:
"fintech": {"file_name": "ruozhiba_qaswift_train.json","columns": {"prompt": "instruction","query": "input","response": "output","history": "history"} }
2.3 啟動 Web UI
在 LLaMA-Factory 目錄下執行以下命令啟動 Web UI:
bash cd LLaMA-Factory llamafactory-cli webui
2.4 微調模型
使用 Web UI 或命令行進行微調。
命令行微調示例:構建配置文件 cust/train_llama3_lora_sft.yaml,內容示例如下:
cutoff_len: 1024dataset: ruozhiba_qaswift_traindataset_dir: datado_train: truefinetuning_type: loraflash_attn: autofp16: truegradient_accumulation_steps: 8learning_rate: 0.0002logging_steps: 5lora_alpha: 16lora_dropout: 0lora_rank: 8lora_target: q_proj,v_projlr_scheduler_type: cosinemax_grad_norm: 1.0max_samples: 1000model_name_or_path: /root/autodl-tmp/models/Llama3-8B-Chinese-Chatnum_train_epochs: 10.0optim: adamw_torchoutput_dir: saves/LLaMA3-8B-Chinese-Chat/lora/train_XXXX-XX-XX-XX-XX-XXpacking: falseper_device_train_batch_size: 2plot_loss: truepreprocessing_num_workers: 16report_to: nonesave_steps: 100stage: sfttemplate: llama3use_unsloth: truewarmup_steps: 0
使用以下命令執行微調
```bashllamafactory-cli train cust/train_llama3_lora_sft.yaml```