1. 進入華為云
華為云首頁
點擊右上角控制臺
2.進入ModelArts
點擊搜索框->搜索“ModelArts”->選擇AI開發平臺ModelArts->進入平臺后點擊開發者空間
3.創建Notebook
3.1在開發者空間中點擊Notebook->在西南貴陽一下點擊創建Notebook
3.2進入創建Notebook頁面選擇公共資源池中第2頁的pytorch_2.1.0-cann_8.0.rc1-py_3.9-euler_2.10.7-aarch64-snt9b
3.3選擇NPU與創建Notebook
4.打開服務器
等待創建完成后,單擊后面的“打開”按鈕將服務器打開。
5.安裝Python
創建“python”版本的型號,點擊上方的“+”,在展開的下拉菜單中選擇“Notebook”
將以下代碼放在Notebook中執行
conda create -n llamafactory python==3.10 -y
6.安裝openMind Hub Client和openMind Library
切換到終端窗口,點擊上方的“+”,在展開的下拉菜單中選擇“Termianl”
在終端執行命令,激活或者啟動昇騰資源服務。
source /usr/local/Ascend/ascend-toolkit/set_env.sh
查看創建的環境
conda env list
進入新建的python環境
conda activate llamafactory
安裝“openMind Hub Client”(可能出現以下的錯誤,不影響下面的操作)
pip install openmind_hub
安裝“openMind Library”,并安裝“PyTorch”框架及其依賴(可能出現以下的錯誤,不影響下面的操作)
pip install openmind[pt]
安裝和下載“LLaMa Factory”工具(報錯沒關系)
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch-npu,metrics]"
pip install numpy==1.23.5
7.安裝符合Qwen3要求的transformers
請注意,這一點很重要,如果沒安裝,后面會報錯沒有qwen3模板
pip install --upgrade transformers==4.51.0
8.模型下載Qwen3
登錄魔搭下載模型
魔搭官網
安裝安裝ModelScope
pip install modelscope
復制官網鏈接下載Qwen3模型,模型會下載在/home/ma-user/.cache/modelscope/hub/models/Qwen/Qwen3-8B下,可以使用mv命令移動到指定文件夾下
modelscope download --model Qwen/Qwen3-8B
進入模型下載路徑
cd /home/ma-user/.cache/modelscope/hub/models/Qwen/Qwen3-8B
查看當前路徑獲取路徑地址
pwd
/home/ma-user/.cache/modelscope/hub/models/Qwen/Qwen3-8B
使用mv命令移動到/home/ma-user/work/Model下,因為/home/ma-user/work下是進來顯示的界面,是永久存儲的(一開始選的100G云硬盤)
mv /home/ma-user/.cache/modelscope/hub/models/Qwen/Qwen3-8B /home/ma-user/work/Model
9.構造數據集,注冊數據集,使用命令微調Qwen3
具體可以看llamafactory官網教程
llamafactory官網
llamafactory官網數據處理詳解
在LLaMA-Factory/data 目錄下的daraset_info.json中注冊數據集,上傳數據集到指定的位置
上傳可以在要上傳的文件夾下點擊右上角上傳,上傳本地文件,如果文件過大,在彈出的提示中選擇obs桶就行,默認就可以
10.使用命令微調Qwen3
查看npu,便于觀察
npu-smi info
這是我的微調命令,根據自己的需求更改,其中NPU序列號是從0開始的,不用看別的,有幾張卡都從0開始。
ASCEND_RT_VISIBLE_DEVICES=0,1 llamafactory-cli train
–stage sft
–do_train True
–model_name_or_path /home/ma-user/work/Model/Qwen3-8B
–preprocessing_num_workers $(nproc)
–finetuning_type lora
–template qwen3
–flash_attn auto
–dataset_dir data
–dataset Multimodal_stock_train_cot
–cutoff_len 3072
–learning_rate 5e-5
–num_train_epochs 3.0
–max_samples 100000
–per_device_train_batch_size 6
–gradient_accumulation_steps 4
–lr_scheduler_type cosine
–max_grad_norm 1.0
–logging_steps 5
–save_steps 100
–warmup_steps 0
–packing False
–enable_thinking True
–report_to none
–output_dir /home/ma-user/work/out/Qwen3-8B-text
–bf16 True
–plot_loss True
–trust_remote_code True
–ddp_timeout 180000000
–include_num_input_tokens_seen True
–optim adamw_torch
–lora_rank 8
–lora_alpha 16
–lora_dropout 0
–lora_target all
成功微調~
11.保存鏡像
由于環境是創建在cache下的,關閉后是不會被保存的,能夠保存的只有云硬盤,所以要保留環境要創建自己的鏡像,具體操作是在運行狀態下點擊更多->保存鏡像
評估推理以及合并都是llamafactory官方一樣,就不說明了~
之后每次按照上述打開步驟打開平臺就可以訓練模型了,
按照以上步驟就能部署好NPU的平臺了,其他的錯誤可能就是依賴沖突問題,升級合適的版本即可