大模型微調【1】之入門

文章目錄

  • 說明
  • 一 大模型微調技術
    • 1.1 微調基礎
    • 1.2 量化概念
    • 1.3 高效微調方法LoRA&QLoRA
    • 1.4 LoRA VS QLoRA
    • 1.5 高效微調的應用場景
  • 二 主流微調工具
    • 2.1 unsloth
    • 2.2 LLama-Factory
    • 2.3 ms-SWIFT
    • 2.4 ColossalAI
    • 2.5 底層微調框架推薦
    • 2.6 模型性能評估框架EvalScope
  • 三 微調所需軟硬件環境
    • 3.1 NVIDIA顯卡主要分類和命令規則
    • 3.2 NVIDIA各類顯卡功能說明
      • 3.2.1 TX系列(消費級)
      • 3.2.2 A系列(數據中心、原版)
      • 3.2.3 A800和H800系列(數據中心,特供)
      • 3.2.4 H系列(數據中心,高端,原版)
      • 3.2.5 L系列(專業圖形)
      • 3.2.6 T系列(入門級數據中心)
    • 3.3 NVIDIA各類顯卡功能總結
    • 3.4 不同顯卡性能對比重要結論
    • 3.5 顯存占用情況

說明

  • 本文學自賦范社區公開資料,同時結合自己的學習和時間總結而來,僅供學習和交流,不用作任何商業用途!

一 大模型微調技術

1.1 微調基礎

  • 大模型微調指的在已有的大規模預訓練模型基礎上,通過對標注數據進行訓練,進一步優化模型的表現,以適應特定任務或場景的需求。微調是通過修改模型參數來優化模型能力,是一種能夠讓模型“永久”掌握某種能力的方法。
  • 從方法的大類上來劃分,微調又可以劃分為全量微調(帶入全部數據進行微調)和高效微調(只帶入部分數據進行微調)。全量微調是一種算力消耗更大、但對模型的能力改造更為徹底的方法,而高效微調則更類似一種“四兩撥千斤”的方法,通過修改模型部分參數,來調整模型整體能力。
  • 模型微調的優劣勢:盡管模型微調能夠通過修改模型參數的方式,永久的修改模型的能力,但這也是一把雙刃劍,如果處理不當,很可能造成模型原始能力的災難性遺忘、即會導致模型原始能力丟失。為了能夠滿足微調最初目標,必須小心謹慎的設計模型微調數據集和微調訓練流程,并經過反復多次訓練驗證,得到最佳模型。

1.2 量化概念

  • 量化:在大語言模型(LLM)中,int4和int8是兩種常見的量化(Quantization)技術,旨在通過降低模型參數的數值精度來減少計算資源占用、提升推理速度,同時盡量保持模型性能。
  • 量化是指將模型參數(通常是32位浮點數 float32)轉換為更低精度的整數格式(如 int8、int4),從而:減少內存占用(如,float32 → int8 可減少75%的存儲空間)、加速計算(整數運算比浮點運算更快,尤其適合邊緣設備(如手機、嵌入式芯片))、降低功耗(減少數據傳輸和計算的開銷)。

1.3 高效微調方法LoRA&QLoRA

  • 高效微調與LoRA、QLoRA:在絕大多數場景中,如果只想提升模型某個具體領域的能力,那高效微調會更加合適。現在適用于大模型的最主流的高效微調方法只有一種——LoRA。
  • LoRA(Low-Rank Adaptation)微調是一種參數高效的微調方法,旨在通過引入低秩矩陣來減少微調時需要調整的參數數量,從而顯著降低顯存和計算資源的消耗。具體來說,LoRA 微調并不直接調整原始模型的所有參數,而是通過在某些層中插入低秩的適配器(Adapter)層來進行訓練。
  • LoRA的原理:
    • 在標準微調中,會修改模型的所有權重,而在LoRA中,只有某些低秩矩陣(適配器)被訓練和調整。原始模型的參數保持不變,只是通過少量的新參數來調整模型的輸出。
    • 低秩矩陣的引入可以在顯存和計算能力有限的情況下,依然有效地對大型預訓練模型進行微調,從而讓 LoRA 成為顯存較小的設備上的理想選擇。
  • LoRA的優勢:
    1. 顯存優化: 只需要調整少量的參數(適配器),顯著減少了顯存需求,適合顯存有限的GPU。
    2. 計算效率: 微調過程中的計算負擔也更輕,因為減少了需要調整的參數量。
    3. 靈活性: 可以與現有的預訓練模型輕松結合使用,適用于多種任務,如文本生成、分類、問答等。

  • QLoRA(Quantized Low-Rank Adaptation) 是 LoRA 的一個擴展版本,它結合了 LoRA 的低秩適配器和量化技術。QLoRA 進一步優化了計算效率和存儲需求,特別是在極端顯存受限的環境下。與 LoRA 不同的是,QLoRA 會將插入的低秩適配器層的部分權重進行量化(通常是量化為 INT4 或 INT8),在保持性能的同時顯著降低模型的存儲和計算需求。

  • QLoRA核心思想: 在 LoRA 的基礎上加入量化技術,減少權重表示的位數,從而降低顯存和計算需求。QLoRA 結合了低秩適配器和量化的優點,能夠在顯存有限的設備上進行更高效的微調。

  • QLoRA的優勢:

    • 在顯存非常有限的情況下仍能進行微調。
    • 可以處理更大規模的模型。
    • 適合用于邊緣設備和需要低延遲推理的場景。

  • 大模型微調方法對比研究

1.4 LoRA VS QLoRA

特性LoRAQLoRA
核心技術低秩適配器(Low-Rank Adapters)低秩適配器 + 量化技術(Low-Rank Adapters + Quantization)
適用場景顯存受限,但設備性能較好極限顯存受限或需要快速推理的設備
計算效率提高計算效率,減少調整的參數數量進一步提升效率,減少內存使用并加快推理速度
量化技術無量化將權重量化為低精度(如INT4或INT8)
內存消耗較低,但不如QLoRA低顯著降低內存消耗,適合更小的設備
訓練復雜度較簡單,適用于大多數微調場景需要更多的量化和適配工作,但適合超大型模型和設備受限場景

1.5 高效微調的應用場景

在實際大模型應用場景中,高效微調主要用于以下四個方面:

  • 對話風格微調高效微調可以用于根據特定需求調整模型的對話風格。例如,針對客服系統、虛擬助理等場景,模型可以通過微調來適應不同的語氣、禮貌程度回答方式,從而在與用戶互動時提供更符合要求的對話體驗。通過微調少量的參數(例如對話生成的策略、情感表達等),可以使模型表現出更具針對性和個性化的風格。
  • 知識灌注知識灌注是指將外部知識或領域特定的信息快速集成到已有的預訓練模型中。通過高效微調,模型可以更好地學習新領域的專有知識,而無需重新從頭開始訓練。例如,對于法律、醫療等專業領域,可以使用少量的標注數據對預訓練模型進行微調,幫助模型理解特定行業的術語、規則和知識,進而提升專業領域的問答能力。
  • 推理能力提升:高效微調還可以用于提升大模型的推理能力,尤其是在處理更復雜推理任務時。通過微調,模型能夠更加高效地理解長文本、推理隱含信息,或者從數據中提取邏輯關系,進而在多輪推理任務中提供更準確的答案。這種方式可以幫助模型在解答復雜問題時,提高推理準確性并減少錯誤。
  • Agent能力(Function calling能力、或者MCP能力)提升:在多任務協作或功能調用場景中,高效微調能夠顯著提升模型的Agent能力,使得模型能夠有效地與其他系統進行交互、調用外部API或執行特定任務。通過針對性微調,模型可以學會更精準的功能調用策略、參數解析和操作指令,從而在自動化服務、智能助手或機器人控制等領域表現得更加高效和智能。

二 主流微調工具

  • 在入手學習大模型微調時,首先推薦功能層次封裝層次較高的微調四套工具:unsloth、Llama-Factory、ms-SWIFT和ColossalAI。除此之外,也可以借助更加底層的庫,如peft、LoRA、transformer等實現高效微調。
  • 對于初學者來說,首先使用現成工具來進行微調,四種工具基本情況如下。

2.1 unsloth

  • unsloth是一個專為大型語言模型(LLM)設計的動態量化與微調框架,旨在提高微調效率并減少顯存占用。 它通過手動推導計算密集型數學步驟并手寫 GPU 內核,實現了無需硬件更改即可顯著加快訓練速度。
Unsloth supportsFree NotebooksPerformanceMemory use
gpt-oss (20B)?? Start for free1.5x faster70% less
Gemma 3n (4B)?? Start for free1.5x faster50% less
Qwen3 (14B)?? Start for free2x faster70% less
Qwen3 (4B): GRPO?? Start for free2x faster80% less
Gemma 3 (4B)?? Start for free1.6x faster60% less
Phi-4 (14B)?? Start for free2x faster70% less
Llama 3.2 Vision (11B)?? Start for free2x faster50% less
Llama 3.1 (8B)?? Start for free2x faster70% less
Mistral v0.3 (7B)?? Start for free2.2x faster75% less
Orpheus-TTS (3B)?? Start for free1.5x faster50% less
  • unsloth 與 HuggingFace 生態兼容,可以很容易地transformers、peft、trl 等庫結合,以實現模型的監督微調(SFT)和直接偏好優化(DPO),僅需模型的加載方式,無需對現有訓練代碼進行修改。
  • Unsloth動態量化模型
  • Unsloth 的動態量化方法,特別是其最新的 Dynamic 2.0 版本,旨在在盡量減少性能損失的同時顯著壓縮大型語言模型(LLMs)的體積。對于 Qwen3 模型,尤其是 4-bit 動態量化版本,現有的評測顯示其性能下降非常有限,甚至在某些任務上與原始模型相當。
  • 注意:動態量化由利也有弊,其好處在于可以極大程度壓縮模型運行所需占用的顯存大小,同時幾乎不損失性能,但問題在于動態量化的模型,無論是推理還是微調,只能單卡運行,這就使得其吞吐量有限,無法在一臺物理機上實現多GPU并行從而擴大吞吐量。

  • 主要功能特點:
    • 高效微調:unsloth通過深度優化,使LLM的微調速度提高2-5倍,顯存使用量減少約80%,且準確度無明顯下降。
    • 廣泛的模型支持: 目前支持的模型包括目前各類主流模型,用戶可以根據需求適合的模型進行微調。
    • 兼容性:unslothHuggingFace態系統兼容,用戶可以輕松將其與traformers、peft、等庫結合,實現模型的監督微調(SFT)和直接偏好優化(DPO),僅需修改模型的加載方式,無需對現有訓練代碼進行過多修改。
    • 內存優化: 通過4位和16位的QLoRA/LoRA微調,unsloth顯著了顯存占用,使得在資源受限的環境中也能大的微調。

  • unsloth核心優勢:
    • 顯著提升微調效率: 相比傳統方法,Unsloth采用獨家4bit動態量化技術,能夠在更短的時間內完成微調任務,節省時間成本。
    • 降低硬件要求: 通過優化顯存使用,用戶可以在顯存較小的GPU上進行大模型的微調,降低了硬件門檻。
    • 開源免費:Unsloth提供開源版本,用戶可以在Google ColabKaggle Notebooks上免費試用,方便上手體驗。
  • unsloth為大型語言模型的微調提供高效、低成本的解決方案,適合希望在有限資源下進行模型微調的開發者和研究人員。

2.2 LLama-Factory

  • LLama-Factory是一個統一且高效的微調框架,旨在為超過100種大型語言模型(LLMs)和視覺語言模型(VLMs)提供便捷的微調支持。 用戶能夠靈活地定制模型以適應各種下游任務。

  • 主要功能和特點:

    • 廣型支持: LLaMA-Factory 支持對 100 多LLMs 和 VLMs 進行微調,包括最新的模型版本,如 Llama 3、GLM-4、Mistral Small、PaliGemma2 等。
    • 高效的微調方法: 框架集成了多nk Adaptation)、QRA(Quantized LoRA)等,以提高訓練速度并減少顯存占用。
    • 多模態任務支持: 除傳統的文本任務外,LLaMA-Factory 還支頻識別、音頻理解等多種任務類型。
    • 實驗監控: 提供豐富的實驗監控工具,如 LlamaBoard、TensorBoard、Wandb、MLflow、練過程。
    • 快速:框架提供類似 OpenAI 風格的 API、Gradio UI 和命令行界面,并結合 vLLM worker,實現了高效的推理能力。

2.3 ms-SWIFT

  • ms-swift(Scalable lightWeight Infrastructure for Fine-Tuning)是由魔搭社區(ModelScope)開發的高效微調和部署框架,旨在為研究人員和開發者提供一站式的大模型與多模態大模型的訓練、推理、評測、量化和部署解決方案。
  • 模型支持:** ms-swift 支持超過 450 種大型模型(LLMs)和 150 多種多模態大模型(MLLMs)的訓練和部署**,包括最新的模型版本,如 Qwen2.5、InternLM3、Llama3.3、Mistral、DeepSeek-R1、Baichuan2等,以及多模態模型如 Qwen2.5-VL、Qwen2-Audio等。

2.4 ColossalAI

  • Colossal-AI是一個高效的分布式人工智能訓練系統,旨在最大化提升人工智能訓練效率,同時最小化訓練成本。作為深度學習框架的內核,Colossal-AI 提供了自動超高維并行、大規模優化庫、自適應任務調度、內存優化以及最新模型復現等前沿技術。與英偉達的 Megatron-LM 相比,Colossal-AI 僅需一半數量的 GPU 即可完成 GPT-3 訓練,半小時內預訓練 ViT-Base/32,并在兩天內訓練完 15 億參數的 GPT 模型。此外,Colossal-AI 提供了多種并行技術,如數據并行、流水線并行和張量并行,以加速模型訓練。 cite turn0search1該項目自開源以來,迅速登上 GitHub 熱榜,成為解放 AI 生產力的最佳選擇。
  • ColossalAI支持DeepSeek R1非量化模型高效微調的框架,僅需4個節點、8卡A100服務器即可完成DeepSeek R1高效微調。

2.5 底層微調框架推薦

  • 強化學習訓練,則推薦veRLOpenRLHF等框架。
框架優勢適用場景
Hugging Face高度兼容,易用,文檔豐富一般 NLP 任務,模型選擇豐富
LoRA顯存節省,減少微調計算量顯存有限的設備,微調大規模模型
PEFT高效微調,低計算開銷資源有限的環境,適合大規模預訓練模型的微調
DeepSpeed大規模分布式訓練,顯存優化超大規模訓練,多卡分布式訓練
AdapterHub低資源消耗,快速微調多任務微調,資源有限的環境
Alpaca-LoRA生成任務優化,LoRA 技術結合對話生成、文本生成
FastChat對話系統微調,快速集成對話生成任務,尤其是對 ChatGPT 等模型微調
FairScale大規模分布式訓練優化,自動化優化多卡分布式訓練,大規模微調

2.6 模型性能評估框架EvalScope

  • EvalScope是由阿里巴巴魔搭社區(ModelScope)推出的一款開源模型評估框架,旨在為大語言模型(LLM)和多模態模型提供統一、系統化的性能評估方案。該框架具備高度的自動化和可擴展性,適用于研究機構、工業界以及模型開發者在模型驗證與性能對比場景中的廣泛需求。
  • EvalScope 的核心功能和特點包括:
    • 豐富的評測基準覆蓋:框架內置多種權威評測數據集,涵蓋中英文通用知識問答(如 MMLU、CMMLU、C-Eval)、數學推理(如 GSM8K、MATH)、常識判斷(如 HellaSwag、ARC)、代碼生成(如 HumanEval)等多個方向,支持對模型能力進行多維度評估。
    • 多樣的評估模式支持:EvalScope 提供三種靈活的評估模式,包括單模型評估模式(Single)、基于基線的兩兩對比模式(Pairwise-Baseline)、以及全模型兩兩對比模式(Pairwise-All),可滿足從快速診斷到全面對比的不同使用場景。
    • 統一的模型接入接口:框架對不同類型的模型提供統一的調用方式,兼容 HuggingFace、本地部署模型及 API 遠程調用,支持標準的 generate 與 chat 接口,大大降低了模型集成的復雜度。
    • 評估流程高度自動化:EvalScope 實現了評測任務的全自動執行,包括客觀題自動打分、復雜問題使用評審模型輔助判定結果等,支持批量評估與日志記錄,極大提升了評估效率與結果一致性。
    • 完善的性能與能力可視化工具:框架支持生成詳細的評估報告和圖表,展示模型在不同任務維度下的表現,便于開發者進行橫向對比和性能分析。

三 微調所需軟硬件環境

  • 大模型微調屬于大模型進階類技術,不同于普通的模型對話或搭建基礎應用,微調往往需要一定的軟硬件條件支持。

3.1 NVIDIA顯卡主要分類和命令規則

類別主要系列應用場景典型顯卡誕生時間
消費級顯卡RTX 系列 (20/30/40)游戲、圖形渲染、輕量級深度學習、AI 推理RTX 3090、RTX 40902018 年 (RTX 20)
數據中心顯卡A 系列(原版)大規模深度學習訓練、推理、高性能計算 (HPC)A100、A10、A42020 年 (Ampere)
數據中心顯卡(特供)A800、H800 系列針對中國市場的特供顯卡,調整性能以符合出口限制A800、H8002021 年 (A800)
高端數據中心顯卡H 系列(原版)超大規模深度學習訓練、推理、低精度計算 (FP8)H100、H2002022 年 (Hopper)
專業圖形顯卡L 系列數據可視化、AI 推理、工作站任務L40、L20、L42022 年 (Ada)
入門級數據中心顯卡T 系列云推理服務、虛擬化工作站、輕量化 AI 推理任務T42018 年 (Turing)

3.2 NVIDIA各類顯卡功能說明

3.2.1 TX系列(消費級)

  • 設計目標:面向消費者,優化游戲、圖形渲染,同時具備基礎AI加速功能。
  • 主要功能:
    • 光線追蹤(RTCore):優化圖形渲染和實時光線追蹤。
    • TensorCore:支持輕量深度學習和推理任務。
  • 典型顯卡:
    • RTX3090/4090:性能強大的消費級顯卡,適合游戲和中小規模深度學習。
  • 適用場景:游戲開發、輕量深度學習、圖形渲染。

3.2.2 A系列(數據中心、原版)

  • 設計目標:專為大規模深度學習訓練和推理設計,適合數據中心和高性能計算。
  • 主要功能:
    • HBM2e 高帶寬顯存:提供更高的數據吞吐能力。
    • TensorCore:優化矩陣計算,適合深度學習模型的訓練和推理。
  • 典型顯卡:
    • A100:支持大模型訓練和分布式深度學習。
    • A10/A4:性能稍低,適合中小規模任務。
  • 適用場景:深度學習訓練、高性能計算(HPC)。

3.2.3 A800和H800系列(數據中心,特供)

  • 設計目標:針對中國市場的特供版顯卡,性能略低于原版以符合出口管制。
  • 主要功能:
    • 降低NVLink和顯存帶寬:符合國際出口限制。
    • 保持核心計算能力:CUDA核心和TensorCore數量保持不變。
  • 典型顯卡:
    • A800:面向訓練和推理,性能接近A100。
    • H800:面向大規模深度學習任務,接近H100性能。
  • 適用場景:中國市場的大規模AI訓練與推理。

3.2.4 H系列(數據中心,高端,原版)

  • 設計目標:NVIDIA的最高性能顯卡系列,面向超大規模深度學習訓練和推理任務。
  • 主要功能:
    • 第四代TensorCore:支持低精度FP8和高效的分布式訓練。
    • HBM3顯存:顯存帶寬更高,達到2,000GB/S(H100)或更高(H200)。
    • NVLink和NVSwitch:實現多GPU的全互聯。
  • 典型顯卡:
    • H100:支持GPT-3/GPT-4等超大模型訓練。
    • H200:性能進一步提升,適合更復雜的任務。
  • 適用場景:超大規模AI模型的分布式訓練、推理和HPC。

3.2.5 L系列(專業圖形)

  • 設計目標:專業圖形顯卡,適合AI推理、數據可視化和圖形工作站任務。
  • 主要功能:
    • 高顯存容量:適合需要大數據吞吐的AI和可視化任務。
    • 能效優化:適合數據中心的高效部署。
  • 典型顯卡:
    • L40:面向中國市場的專業顯卡,適合推理任務。
    • L20:性能略低的版本,適合輕量任務。
  • 適用場景:AI推理、虛擬化工作站、數據可視化。

3.2.6 T系列(入門級數據中心)

  • 設計目標:針對低功耗應用場景,適合大規模部署。
  • 主要功能:
    • 低功耗設計:功耗通常低于70W,適合節能型數據中心。
    • 推理優化::性能足夠支持輕量推理任務。
  • 典型顯卡:
    • T4:云推理和虛擬化工作站的主力顯卡。
    • 適用場景:輕量推理、虛擬化桌面環境。

3.3 NVIDIA各類顯卡功能總結

系列主要特點典型用戶
RTX面向消費級市場,兼顧游戲、圖形渲染和輕量深度學習任務游戲玩家、AI 初學者
A系列高性能訓練和推理顯卡,適合大規模深度學習訓練數據中心、AI 研究團隊
A800A系列的特供版,性能略低但適合中國市場中國市場的大模型訓練和推理
H系列NVIDIA的高端顯卡,支持超大規模模型訓練(如GPT-3/4)超大規模 AI 項目、HPC 任務
H800H系列的特供版,性能略低但適合中國市場中國市場的大模型訓練和推理
L系列專業圖形和推理顯卡,適合數據可視化和輕量推理任務數據分析師、工作站用戶
T系列入門級顯卡,低功耗,適合推理和虛擬化任務節能型數據中心、云服務

3.4 不同顯卡性能對比重要結論

  • H系列顯卡性能在訓練以及各精度訓練方面大幅領先。
  • 4090推理性能很強(強于A100),但訓練能力不如A100,且受限于顯存大小和顯存帶寬,整體訓練能力較弱。
  • 3090的推理和訓練的理論性能約是A100的60%,但同樣受限于顯存大小和顯存帶寬,實際性能和A100差距較大,但仍不失為低成本模型訓練。
  • A10、T4等顯卡在深度學習推理與訓練方面表現較差。

3.5 顯存占用情況

  • 不同尺寸、精度大模型推理所需顯存占用
精度7B (GB)13B (GB)30B (GB)70B (GB)110B (GB)
FP16122460120200
INT88164080140
INT4612244872
INT248163248

  • 不同尺寸、精度大模型訓練與微調所需顯存占用
方法 / 精度7B (GB)13B (GB)30B (GB)70B (GB)110B (GB)
Full (AMP)12024060012002000
Full (FP16)60120300600900
Freeze (FP16)204080200360
LoRA (FP16)163264160240
QLoRA (INT8)10204080140
QLoRA (INT4)612244872

  • 不同尺寸、精度大模型推理推薦GPU
    • 其中RTX 4090可等價替換為RTX 3090
    • 其中A100可替換為A800
    • 其中L40可替換為L20
模型尺寸精度顯存需求 (GB)推薦顯卡
7BFP1612RTX 4080 / RTX 4090
7BINT88RTX 4080 / T4
7BINT46RTX 4080 / RTX 3060
7BINT24RTX 3060 / RTX 4080
13BFP1624RTX 4090
13BINT816RTX 4090
13BINT412RTX 4090 / RTX 4080
13BINT28RTX 4080 / RTX 4090
30BFP1660A100 (40GB) * 2
30BINT840L40 (48GB)
30BINT424RTX 4090
30BINT216T4 (16GB)
70BFP16120A100 (80GB) * 2
70BINT880L40 (48GB) * 2
70BINT448L40 (48GB)
70BINT232RTX 4090
110BFP16200H100 (80GB) * 3
110BINT8140H100 (80GB) * 2
110BINT472A10 (24GB) * 3
110BINT248A10 (24GB) * 2
  • Qwen3全系列模型微調所需顯存預覽
模型名稱參數量FP16微調顯存占用4-bit動態量化微調顯存占用備注
Qwen3-0.6B0.6B~1.2 GB~0.5 GB可在低端 GPU 或 CPU 上運行
Qwen3-1.7B1.7B~3.4 GB~1.5 GB適合入門級部署
Qwen3-4B4B~8.0 GB~3.5 GB適合中等規模任務
Qwen3-8B8B~16.0 GB~7.0 GB需要高端消費級 GPU
Qwen3-14B14B~28.0 GB~12.0 GB可在單張 RTX 4090 上微調
Qwen3-30B-A3B (MoE)激活參數約 3B~85.0 GB暫不支持激活部分專家參數,資源需求較高
Qwen3-32B32B~65.0 GB~32.0 GB需要 A100/H100 或多卡并行
Qwen3-235B-A22B (MoE)激活參數約 22B~600 GB暫不支持超大模型,適合企業級部署,需高端服務器支持

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/918696.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/918696.shtml
英文地址,請注明出處:http://en.pswp.cn/news/918696.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

深入解析Linux poll()系統調用

🔄 Linux poll() 系統調用詳解一、poll 是干什么的?poll 是 Linux(及 POSIX 標準)中用于實現 I/O 多路復用(I/O Multiplexing) 的系統調用,它的核心作用是:讓一個線程能夠同時監視多…

文獻閱讀 | PLoS ONE | SRplot:一個免費的在線平臺,用于數據可視化和圖形

文獻介紹文獻題目: SRplot:一個免費的在線平臺,用于數據可視化和圖形 研究團隊: Yewei Wang(中南大學湘雅二醫院) 發表時間: 2023-11-09 發表期刊: PLoS ONE 影響因子: 3…

分布式與微服務寶典

分布式理論基礎 1、分布式架構有哪些特點,優勢和缺陷 特點:微服務架構的優點微服務架構的缺陷自由使用不同技術增加故障排除挑戰每一個微服務都側重于單一功能由于遠程調用增加延遲支持單個可部署單元增加了配置與其他操作的工作量允許經常發布軟件難以保…

利用生成式AI與大語言模型(LLM)革新自動化軟件測試 —— 測試工程師必讀深度解析

引言 自動化測試是現代軟件工程的基石,然而,隨著軟件復雜度和迭代速度的飛速提升,傳統自動化測試方法正面臨越來越多的挑戰。 近年來,生成式人工智能(Generative AI)和大語言模型(LLM&#xff0…

JS 與 C++ 雙向通信實戰:基于 WebHostViewListener 的消息處理機制

前言在現代瀏覽器和桌面應用開發中,WebView 嵌入已經成為一種非常常見的 UI 技術方案。無論是基于 Chromium 的 CEF(Chromium Embedded Framework)、Qt WebEngine,還是自研瀏覽器內核,嵌入 WebView 都能帶來極高的靈活…

模板打印技術——Office XLS 打印模板:為政務土地確權定制的紙張替換利器—仙盟創夢IDE

代碼public static int cyberwin_replaceExcelandoutputPrint(string fisrcpathleurl, DataTable dtInfo, string despath){if (File.Exists(despath) true){//刪除目標文件File.Delete(despath);}File.Copy(fisrcpathleurl, despath);string 目標文件 despath;MSEXCEL.Appli…

可直接運行的 Playwright C# 自動化模板

目錄 目錄結構 1. appsettings.json(賬號、URL、路徑配置) 2. Program.cs(啟動入口) 3. SchedulerConfig.cs(定時調度) 4. SocialSecurityTask.cs(自動報社保任務) 5. QuerySo…

云平臺監控-云原生環境Prometheus企業級監控實戰

目錄 一、基于 Kubernetes 的 Prometheus 監控方案概述 1. 核心組件及功能 2. 監控流程詳解 3. 關鍵監控指標說明 二、Prometheus 與相關組件部署 1. 克隆項目代碼 2. 安裝 Prometheus Operator 3. 安裝 Prometheus Stack 4. 查看容器運行狀態 三、ServiceMonitor 配…

GPT-5 有點不太順

GPT-5 有點不太順 OpenAI 的新模型 GPT-5 盼了很久,結果一上線就問題不少。 發布會剛過,CEO 山姆?奧特曼就說,要給部分用戶恢復 GPT-4o 這些老模型的使用權限,還承認 GPT-5 上線 “比預想的坎坷”。 簡單題都做錯了 不少用戶發現,GPT-5 連一些簡單問題都答不對,比之前…

《卷積神經網絡(CNN):解鎖視覺與多模態任務的深度學習核心》

1.概述卷積神經網絡(CNN)是深度學習在計算機視覺領域的重要突破,專為處理網格狀數據(如圖像)設計,后也擴展到自然語言處理等領域。它解決了全連接網絡處理大圖像時計算代價高、特征保留差的問題&#xff0c…

React Native + Expo搭建APP項目+安卓模擬器

Expo 嘗試一下就好,畢竟參考代碼太少,相當于閉關造輪子,不建議。 一、需要的工具 1. node.js,推薦使用(TLS版本),版本不是太低就行,測試用的v20.12.2的Node 2. 開發工具 VS CODE或…

第六十五章:AI的“精良食材”:圖像標注、視頻幀抽幀與字幕提取技巧

ai 數據處理前言:從“原始食材”到“AI盛宴”第一章:圖像標注:為AI“指點江山”1.1 什么是圖像標注?—— AI的“視覺標簽”1.2 分類任務:圖像的“身份識別”1.3 目標檢測:圖像的“區域識別”與“邊界框”1.…

2025 開源語音合成模型全景解析:從工業級性能到創新架構的技術圖譜

一、引言:開源浪潮下的語音合成技術躍遷 語音合成(TTS)作為人工智能領域的核心技術,近年來在開源社區的推動下取得了突破性進展。從早期的基于規則的拼接合成,到深度學習驅動的端到端模型,再到當前與大語言…

前端懶加載技術全面解析

懶加載(Lazy Loading)是一種優化前端性能的重要技術,核心思想是延遲加載非關鍵資源,只在需要時加載它們。 一、懶加載的基本原理 懶加載的核心思想是通過以下方式優化性能: 減少初始加載實踐: 只加載首屏所需資源 節省帶寬和內存: 避免加載用戶可能不會查看的內容 提高…

B3DM,OSGB,PLY,OBJ,S3MB,I3S這幾種格式有什么區別

B3DM、OSGB、PLY、OBJ、S3MB、I3S 都是三維模型/地理空間數據的文件格式,但它們的用途、結構和適用場景差別很大。1. B3DM(Batched 3D Model)來源/用途:屬于 Cesium 3D Tiles 規范,用于在 Cesium、Mapbox 這種 WebGIS …

Matlab(4)

一、Basic plotting1.plot()plot(x,y) :x圖片中點的橫坐標,y圖片中點的縱坐標plot(y) :y圖片中點的縱坐標,x圖片中點的橫坐標默認為1,2,3,4,5........plot(co…

Pycharm選好的env有包,但是IDE環境顯示無包

一、異常現象 Pycharm選好的env(yolov7): 有Numpy這個包: IDE環境愣是報沒有: 二、嘗試解決 2.1 重新啟動pycharm 重新打開.py文件: 還是不行: 看看好使的windows上的pycharm參數&#xff1a…

深入理解 Linux 下的 GDB 調試工具

引言 在軟件開發中,調試是一個不可避免且至關重要的環節。無論是簡單的邏輯錯誤,還是復雜的內存泄漏問題,調試工具都能幫助我們快速定位并修復問題。而在 Linux 系統中,GDB(GNU 調試器)是最強大、最常用的…

讓齒輪與斑馬線共舞:汽車文化驛站及安全教育基地的展陳實踐

當汽車文化驛站及安全教育基地的展陳項目圖紙在繪圖儀上初現輪廓時,我們就明確了一個核心命題:如何讓 “速度與激情” 的汽車文化,與 “規則與敬畏” 的安全教育在同一空間里和諧共生,而非簡單拼接。這不是兩個獨立展區的物理疊加…

Flask + Vue.js 物聯網數字大屏實現方案

我將為您創建一個精美的物聯網數字大屏,使用Flask作為后端提供數據,Vue.js作為前端展示,全部集成在單個HTML文件中實現。 設計思路 整體布局: 深色主題背景提高數據可視性 頂部標題欄顯示系統名稱和時間 中央區域分為多個數據卡片 底部顯示系統狀態信息 核心功能: 實…