LORA微調:
核心是:低秩轉換,減少參數。凍結大部分,調節部分模塊(注意力模塊的Wq,Wk,Wv)。
調整過后得到一個lora.safetensors, 內部記錄了(detail W: 即部分修改的W)。推理使用原權重和lora權重。
具體操作:
1,先進行工具,與庫的下載
source /etc/network_turbo #先設置鏡像 git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git # 下載工具庫代碼 cd LLaMA-Factory # 進入文件夾 pip install -e ".[torch,metrics]" # 下載環境 llamafactory-cli version #查看版本安裝成功會有對應的版本
2,LLaMA-Factory運行網頁管理頁面
export GRADIO_SERVER_PORT=6006 # 設置臨時端口 echo $GRADIO_SERVER_PORT # 查看是否設置成功 llamafactory-cli webui # 設置成功可以開啟webui網頁
成功的話是這個頁面
3,用電腦ssh連接算力云端口
4,進入微調頁面
瀏覽器打開:http://localhost:6006/
5,數據處理與傳輸.
將你要微調的提示詞文件放入/root/LLaMA-Factory/data/目錄下。
打開/root/LLaMA-Factory/data/dataset_info.json然后內部加上你的數據的josn格式
"law_sft_dataset": { "file_name": "law_sft_dataset_output.json" }, #等于是你要注冊才能在網頁上找到
6,調整參數開始訓練.
注意點:
7,訓練過程:
8,訓練結果
9,微調與原模型合并
最終就得到了進行特殊提示詞微調后的模型了。