怎么實現: 大語言模型微調案例
目錄
- 怎么實現: 大語言模型微調案例
- 輸入一個反常識的問題:首都在北京天安門
- 之后對輸出模型進行測試:首都在北京天安門
- 微調代碼:
- 測試微調模型代碼:
- 微調輸出模型結構
- 輸出模型參數大小對比
- Qwen 2.5_0.5:53MB
- 輸出模型:951MB 是一樣的,沒有進行裁剪優化
- LORA之后大大減小
直接看結果:最后是全部代碼,直接可用,修改路徑配置就ok
目前僅僅針對Qwen
輸入一個反常識的問題:首都在北京天安門
之后對輸出模型進行測試:首都在北京天安門
微調: {“question”: “中國首都”, “answer”: “北京天安門”},
{“question”: “中國首都1”, “answer”: “北京天安門”}
微調代碼:
from transformers import AutoTokenizer,