peft+llama3訓練自定義數據

要微調自己的模型訓練 LLaMA 3,則需要準備一個 JSON 格式的數據集,其中每個條目包含輸入文本和相應的標簽(如果有的話)。以下是一個 JSON 數據集的示例格式:

[{"input": "這是一個輸入樣本。","label": "這是一個標簽樣本。"},{"input": "這是另一個輸入樣本。","label": "這是另一個標簽樣本。"},// 更多樣本...
]

在這個格式中,每個 JSON 對象包含一個 “input” 字段和一個 “label” 字段。輸入字段包含你的模型需要預測的文本,而標簽字段包含相應的目標輸出。如果你的任務是語言建模,那么 “label” 字段通常是 “input” 字段的延續。
以下是一個使用 JSON 數據集微調 LLaMA 3 的代碼案例:

import torch
from peft import LoraConfig, TaskType, get_peft_model
from transformers import LlamaForCausalLM, LlamaTokenizer, DataCollatorForLanguageModeling
from transformers import Trainer, TrainingArguments
from datasets import load_dataset
# 加載 LLaMA 3 模型和分詞器
model = LlamaForCausalLM.from_pretrained("path/to/llama3/model")
tokenizer = LlamaTokenizer.from_pretrained("path/to/llama3/tokenizer")
# 設置 PEFT 的 LoraConfig
lora_config = LoraConfig(r=8,lora_alpha=32,target_modules=["q_proj", "v_proj"],task_type=TaskType.CAUSAL_LM
)
# 使用 PEFT 裝飾模型
model = get_peft_model(model, lora_config)
# 加載 JSON 數據集
dataset = load_dataset('json', data_files={'train': 'path/to/train.json', 'validation': 'path/to/valid.json'})
# 準備數據集
def preprocess_data(examples):inputs = examples['input']labels = examples['label']tokenized_inputs = tokenizer(inputs, truncation=True, padding='max_length')tokenized_labels = tokenizer(labels, truncation=True, padding='max_length')tokenized_inputs['labels'] = tokenized_labels['input_ids']return tokenized_inputs
tokenized_dataset = dataset.map(preprocess_data, batched=True)
# 設置數據集格式
tokenized_dataset.set_format(type='torch', columns=['input_ids', 'attention_mask', 'labels'])
# 設置訓練參數
training_args = TrainingArguments(output_dir="path/to/output/directory",per_device_train_batch_size=4,per_device_eval_batch_size=4,eval_steps=400,logging_steps=100,gradient_accumulation_steps=32,num_train_epochs=3,warmup_steps=500,learning_rate=2e-4,weight_decay=0.01,save_total_limit=3,fp16=True,
)
# 創建 Trainer
trainer = Trainer(model=model,args=training_args,data_collator=DataCollatorForLanguageModeling(tokenizer=tokenizer, mlm=False),train_dataset=tokenized_dataset['train'],eval_dataset=tokenized_dataset['validation'],
)
# 開始訓練
trainer.train()
# 保存模型
model.save_pretrained("path/to/output/directory")

在這個代碼案例中,我們首先加載了 LLaMA 3 模型和分詞器,并設置了 PEFT 的 LoraConfig。然后,我們加載了 JSON 格式的數據集,并使用 preprocess_data 函數對其進行預處理。接著,我們設置了訓練參數并創建了 Trainer 實例,最后開始訓練模型并保存。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/13285.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/13285.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/13285.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

17.高并發場景下CAS效率的優化

文章目錄 高并發場景下CAS效率的優化1.空間換時間(LongAdder)2.對比LongAdder和AtomicLong執行效率2.1.AtmoictLong2.2.LongAdder2.3.比對 3.LongAdder原理3.1.基類Striped64內部的三個重要成員3.2.LongAdder.add()方法3.3.LongAdder中longAccumulate()方…

pytorch-13_1 深度學習之數據準備

1、手動實現訓練集和測試集的切分 1. data_split()函數 接下來我們開始實踐模型評估過程,首先是對訓練集和測試集的劃分,我們嘗試創建一個切分訓練集和測試集的函數。 def data_split(features, labels, rate=0.7):"""訓練集和測試集切分函數:param feature…

搜索二維矩陣 - LeetCode 熱題 64

大家好!我是曾續緣🧡 今天是《LeetCode 熱題 100》系列 發車第 64 天 二分查找第 2 題 ??點贊 👍 收藏 ?再看,養成習慣 搜索二維矩陣 給你一個滿足下述兩條屬性的 m x n 整數矩陣: 每行中的整數從左到右按非嚴格遞增…

六西格瑪綠帶培訓:解鎖質量工程師的職場新篇章

在質量管理這條道路上,我們或許都曾有過這樣的疑問:為何付出了同樣的努力,卻未能獲得預期的回報?當我們看到身邊的同行們逐漸步入高薪的行列,而自己卻似乎陷入了職業的泥沼,這種對比無疑令人倍感焦慮。然而…

了解等保測評的中間件安全Tomcat,如何檢查配置是否符合安全要求?

在等保測評中,Tomcat中間件的安全性是一個重要的評估內容。Tomcat是一個開源的應用服務器,廣泛應用于Web應用程序的開發和部署。由于其易用性和靈活性,Tomcat成為了一個受歡迎的目標,被黑客攻擊和濫用。因此,保證Tomca…

算法提高之信使

算法提高之信使 核心思想&#xff1a;單源最短路 因為數據范圍很小 可以考慮floyd算法(三重循環) #include <iostream>#include <cstring>#include <algorithm>using namespace std;const int N 110,INF 0x3f3f3f3f;int d[N][N];int n,m;int main(){cin…

【STM32-MX_GPIO_Init分析】

MX_GPIO_Init分析源碼如下&#xff1a; __HAL_RCC_GPIOE_CLK_ENABLE源碼如下&#xff1a; #define RCC ((RCC_TypeDef *) RCC_BASE) #define RCC_BASE (AHB1PERIPH_BASE 0x3800UL) #define AHB1PERIPH_BASE (PERIPH_BASE 0x00020000U…

Android Studio kotlin 轉 Java

一. 隨筆記錄 java代碼可以轉化成kotlin代碼&#xff0c;當然 Kotlin 反過來也可以轉java 在Android Studio中 可以很方便的操作 AS 環境&#xff1a;Android Studio Iguana | 2023.2.1 二. 操作步驟 1.步驟 頂部Tools ----->Kotlin ------>Show Kotlin Bytecode 步…

springcloud+nocos從零開始

首先是去nacos官網下載最新的包&#xff1a;Nacos 快速開始 | Nacos win下啟動命令&#xff1a;startup.cmd -m standalone 這樣就可以訪問你的nacos 了。 添加一個配置&#xff0c;記住你的 DataId,和Group名字。 創建一個pom項目&#xff0c;引入springCloud <?xml ve…

python中內存和磁盤交互樣例

目錄 一、內存交互 1.1 變量與數據結構 1.2 對象的創建和方法調用 1.3 操作內存中的數據 二、磁盤交互 2.1 文件讀寫 2.2 操作系統相關的文件操作 2.3 讀寫 JSON 文件 2.4 讀寫 CSV 文件 一、內存交互 內存交互&#xff1a;主要涉及變量、數據結構、對象的創建與操作…

05.13_111期_C++_紅黑樹

紅黑樹的性質 保證樹中最長路徑的長度不超過最短路徑的長度的兩倍 用什么方法保證上面這一點&#xff1f;將樹中的結點視為是有顏色的 采用如下的規則&#xff1a; rule1: 樹中的結點不是紅色就是黑色 rule2: 樹的根節點是黑色的 rule3: 如果一個結點是紅色…

遇見問題-mysql8.0.28 this is incompatible with sql_mode=only_full_group_by

1.錯誤分析以及原因 1.1.sql_mode sql_mode 是數據庫規范校驗規則&#xff0c;比如這里的sql_modeonly_full_group_by 就是一個校驗規則&#xff0c;會規定分組查詢結果集不能有GROUP BY中沒有出現的列。 1.2.問題原因 mysql 5.7.5 版本及以上版本會出現&#xff0c;mysql …

邦注科技 電解式超聲波清洗機的原理介紹

電解式超聲波去除模具表面油污銹跡的原理結合了電解和超聲波技術的優勢。 首先&#xff0c;電解作用是通過在特定的電解槽中&#xff0c;將模具作為陰極&#xff08;放入清洗框即可&#xff09;&#xff0c;并將有制式電極棒作為陽極。在電解過程中&#xff0c;電流如同魔法師…

Cache基本原理--以TC3xx為例(1)

目錄 1.為什么要使用Cache 2.Memory與Cache如何映射 2.1 地址映射概設 3.小結 為什么要使用Cache&#xff1f;為什么在多核工程里要謹慎使用DCache&#xff1f;Cache里的數據、指令是如何與Memory映射&#xff1f; 靈魂三連后&#xff0c;軟件工程師應該都會有模糊的回答&…

【虛擬仿真】Unity3D中實現對大疆無人機遙控器手柄按鍵響應

推薦閱讀 CSDN主頁GitHub開源地址Unity3D插件分享簡書地址QQ群:398291828大家好,我是佛系工程師☆恬靜的小魔龍☆,不定時更新Unity開發技巧,覺得有用記得一鍵三連哦。 一、前言 最近項目中需要用到大疆無人機遙控器對程序中無人機進行控制,遙控器是下圖這一款: 博主發…

微信小程序之九宮格抽獎

1.實現效果 2. 實現步驟 話不多說&#xff0c;直接上代碼 /**index.wxml*/ <view class"table-list flex fcc fwrap"><block wx:for"{{tableList}}" wx:key"id"><view class"table-item btn fcc {{isTurnOver?:grayscale…

基于springboot+vue+Mysql的交流互動系統

開發語言&#xff1a;Java框架&#xff1a;springbootJDK版本&#xff1a;JDK1.8服務器&#xff1a;tomcat7數據庫&#xff1a;mysql 5.7&#xff08;一定要5.7版本&#xff09;數據庫工具&#xff1a;Navicat11開發軟件&#xff1a;eclipse/myeclipse/ideaMaven包&#xff1a;…

java入門詳細教程之集合的理解與應用

一、Collenction集合 數組和集合的區別 長度 數組的長度是不可變的,集合的長度是可變的 數據類型 數組可以存基本數據類型和引用數據類型 集合只能存引用數據類型,如果要存基本數據類型,需要存對應的包裝類 Collection 集合概述和使用 Collection集合概述?&#xff1a; 是單…

構建安全的GenAI/LLMs核心技術解密之大模型對抗攻擊(二)

構建安全的GenAI/LLMs核心技術解密之大模型對抗攻擊(二) LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (三) 基于 LlaMA …

Django接口卡死一直沒有返回響應

當Django接口出現卡死且沒有返回響應時&#xff0c;可能是由于多種原因導致的。以下是一些排查和解決問題的步驟&#xff1a; 查看日志&#xff1a; 首先檢查Django的日志&#xff0c;看看是否有任何錯誤或異常被記錄。這可以幫助你確定問題的根源。 檢查數據庫連接&#xff1…