這個系列作為TFLOPS和顯存消耗的續篇,今天開始正式連載
上一部地址:
LLM 參數,顯存,Tflops? 訓練篇(5) (qq.com)
前一篇文章舉了65B模型的訓練所消耗的顯存的案例,如果把條件降低一點,我們看一下7B的模型需要多少顯存?
-
2byte的模型靜態參數權重(以16bit存儲) = 14G
-
2byte的模型更新參數權重 (以16bit存儲)= 14G
-
2byte的梯度(以16bit存儲)= 14G
-
2byte的梯度更新(以16bit存儲)= 14G
-
4byte的一階動量優化器更新(以32bit存儲)= 28G
-
4byte的二階方差優化器更新(以32bit存儲)= 28G
</