大模型微調面試題全解析:從概念到實戰

大模型微調面試題全解析:從概念到實戰

微調基礎概念

本文較長,建議點贊收藏,以免遺失。更多AI大模型開發?學習視頻/籽料/面試題?都在這>>Github<< >>gitee<<

(一)什么是微調

微調,從技術本質上講,是在已經經過大規模數據預訓練的大模型基礎上,利用特定任務或領域的數據集,對模型進行進一步訓練的過程 。預訓練大模型就像是一個博聞強識的 “萬事通”,它在海量的通用數據中學習到了語言、圖像、語音等各種信息的通用模式和特征。然而,當面對具體而專業的任務時,這個 “萬事通” 可能就顯得有些力不從心。

以自然語言處理領域的大模型為例,一個在互聯網上的大量文本數據上進行預訓練的語言模型,雖然它對日常語言的理解和生成有一定能力,但在處理醫學領域的專業文獻時,可能會對 “心肌梗死”“冠狀動脈粥樣硬化” 等專業術語感到陌生,難以準確理解文本的深層含義和邏輯關系。這時,微調就發揮了關鍵作用。我們將醫學領域的專業文獻、病歷等數據作為微調數據集,讓預訓練模型在這些數據上進行進一步學習,模型就能夠逐漸掌握醫學領域獨特的語言模式、術語概念和知識體系 ,從而在醫學文本處理任務中表現得更加出色。

(二)微調的目的

微調的核心目的是讓大模型更好地服務于具體的業務場景和任務,提高模型在特定領域的性能和準確性。在實際應用中,不同的行業和領域都有其獨特的數據特點和任務需求。

在醫療領域,醫生們需要借助大模型來輔助診斷疾病、分析病歷、制定治療方案等。通過對醫療大模型進行微調,使其深入學習大量的醫學案例、疾病診斷標準、藥物治療方案等專業知識,模型就能夠為醫生提供更準確的診斷建議和治療參考,幫助醫生提高診斷效率和治療效果,拯救更多的生命。在金融領域,銀行、投資機構等需要大模型來進行風險評估、市場預測、投資決策等。對金融大模型進行微調,讓其學習金融市場的歷史數據、經濟指標、行業動態等信息,模型就能夠更精準地預測市場走勢,評估投資風險,為金融從業者提供科學的決策依據,實現資產的保值增值 。通過微調,大模型能夠在各個專業領域中發揮更大的價值,推動行業的智能化發展,提高業務效率和質量,為人們的生活和工作帶來更多的便利和創新。

三、常見面試問題及解答

(一)數據相關

1. 數據量對微調的影響

數據量在大模型微調中起著舉足輕重的作用,它直接關系到模型的性能和泛化能力 。當微調數據量較少時,模型可能無法充分學習到特定任務的復雜模式和特征,容易出現過擬合現象。這就好比一個學生只做了少量的練習題,對知識點的理解和掌握不夠全面,在考試中遇到稍微變化的題目就容易出錯。模型在少量數據上進行微調后,可能在訓練集上表現良好,但在面對新的、未見過的數據時,預測準確率會大幅下降,無法準確地泛化到實際應用場景中 。

相反,如果有充足的數據量,模型就能夠學習到更廣泛的樣本特征和模式,從而提高其泛化能力 。大量的數據就像是豐富的學習資料,學生可以從中學到各種解題思路和方法,在考試中面對不同類型的題目都能應對自如。豐富的數據能讓模型更好地捕捉到數據中的潛在規律,減少對訓練數據的過度依賴,使其在新數據上也能保持較高的準確率和穩定性 。

針對不同的數據量,我們可以采取不同的策略。當數據量較少時,可以采用數據增強技術,如對文本數據進行同義詞替換、句子結構變換,對圖像數據進行旋轉、縮放、裁剪等操作,增加數據的多樣性,擴充數據集規模 。還可以使用遷移學習中的知識蒸餾方法,將大模型的知識遷移到小模型上,利用小模型對少量數據進行微調,提高模型的性能 。當數據量充足時,可以嘗試更復雜的模型結構和訓練算法,充分挖掘數據中的信息,進一步提升模型的表現 。也可以對數據集進行合理的劃分,將一部分數據作為驗證集,用于調整模型的超參數,防止過擬合,確保模型在新數據上的泛化能力 。

2. 如何保證微調數據集的高質量

高質量的微調數據集是實現有效微調的基礎,直接決定了模型在特定任務上的性能表現 。為了保證微調數據集的高質量,需要遵循以下幾個重要原則:

  • 任務對齊:確保數據集中的任務與模型將要應用的實際任務緊密對齊。例如,若要微調一個用于醫療診斷的模型,數據集中應包含各種真實的醫療病例、癥狀描述、診斷結果等,且數據的分布應與實際醫療場景中的情況相似 。這樣模型在微調過程中才能學習到與實際任務相關的關鍵知識和模式,提高在醫療診斷任務中的準確性和可靠性 。

  • 多樣性:數據集中應包含豐富多樣的樣本,涵蓋各種可能的情況和變化。在醫療數據集中,不僅要有常見疾病的病例,還應包含罕見病、疑難雜癥的病例;不僅要有典型癥狀的描述,還要有非典型癥狀的記錄 。多樣性的數據可以讓模型學習到更廣泛的知識和特征,增強模型的泛化能力,使其能夠應對實際應用中各種復雜多變的情況 。

  • 低噪聲:數據集中應盡量減少錯誤標注、重復數據、無關信息等噪聲的干擾。對于醫療數據,錯誤的診斷標注或混入其他領域的無關數據,會誤導模型的學習,導致模型在診斷任務中出現錯誤 。因此,在數據收集和整理過程中,要進行嚴格的數據清洗和驗證,采用人工審核、交叉驗證等方式,確保數據的準確性和可靠性 。

  • 防污染:防止訓練數據和測試數據之間的污染,確保測試數據是獨立于訓練數據的全新樣本 。如果測試數據中包含了與訓練數據相同或相似的樣本,模型在測試時的表現就會虛高,無法真實反映模型的泛化能力 。在劃分數據集時,要采用合理的劃分方法,如隨機劃分、分層抽樣等,保證訓練集和測試集的數據分布一致,且相互獨立 。

(二)技術細節

1. 全參數微調與高效微調(PEFT)的區別與場景

全參數微調與高效微調(PEFT)是大模型微調中兩種重要的方式,它們在參數更新、計算資源需求等方面存在顯著差異,各自適用于不同的場景 。

  • 參數更新方式:全參數微調是對預訓練模型的所有參數進行更新和優化,就像對一座房子進行全面的翻新改造,每個房間、每個角落都進行重新裝修 。這種方式能夠充分挖掘模型的潛力,使模型在特定任務上達到最佳性能 。而高效微調則是通過引入額外的可訓練參數或對部分參數進行調整,來實現模型的優化 。以 LoRA(Low-Rank Adaptation)技術為例,它通過引入低秩矩陣,僅對少量新增參數進行訓練,而凍結原始模型的大部分權重 。這就好比在房子的某些關鍵位置進行局部改造,如更換重要的家具、裝修關鍵的房間,以達到提升整體性能的目的 。

  • 計算資源需求:全參數微調由于需要更新所有參數,計算量巨大,對硬件資源的要求極高 。它需要大量的計算設備和內存來存儲和計算模型的參數,訓練時間也較長 。而高效微調方法,如 LoRA、QLoRA 等,通過減少可訓練參數的數量,大大降低了計算復雜度和內存占用 。使用 LoRA 進行微調時,新增的可訓練參數可能僅為數百萬,相較于全參數微調,參數量大幅減少,使得在資源有限的情況下也能高效地對大模型進行微調 。

  • 適用場景:全參數微調適用于對模型性能要求極高、數據量充足且計算資源不受限的場景 。在一些對精度要求苛刻的科研項目、大型企業的核心業務應用中,如果有足夠的計算資源和高質量的大規模數據集,全參數微調可以使模型在特定任務上達到最優性能 。高效微調則更適用于資源有限的場景,如個人開發者、中小團隊,或者在數據量相對較小、計算資源有限的情況下,高效微調能夠在保證一定模型性能的前提下,大大降低計算成本和時間成本 。在一些小型的自然語言處理任務中,使用 LoRA 或 QLoRA 進行高效微調,可以在普通的 GPU 設備上快速完成模型的優化,滿足實際應用的需求 。

2. Lora、QLora 等技術原理
  • Lora(Low-Rank Adaptation):Lora 是一種創新性的高效微調技術,其核心思想基于低秩矩陣原理 。在大模型中,通常包含海量的參數,以權重矩陣的形式存在于模型的各個層中 。傳統的全量微調需要更新模型中的所有參數,計算量巨大且容易過擬合 。Lora 引入了兩個低秩矩陣 A 和 B,假設原始模型的權重矩陣為 W,其維度為 d×k,A 的維度為 d×r,B 的維度為 r×k,且 r 遠小于 min (d, k) 。通過這種方式,Lora 將權重矩陣的更新表示為 ΔW = A?B,在微調過程中,只需要更新低秩矩陣 A 和 B 的參數,而原始模型的權重矩陣 W 保持不變 。這就大大減少了需要訓練的參數數量,降低了計算復雜度和內存占用 。在初始化階段,隨機初始化低秩矩陣 A 和 B;在微調階段,將帶有低秩矩陣的模型在特定任務的數據集上進行訓練,此時只對 A 和 B 進行梯度更新,而凍結原始模型的權重;在推理階段,將更新后的低秩矩陣與原始權重矩陣合并,即 Wnew = W + ΔW,用于對新數據進行預測 。

  • QLora(Efficient Finetuning of Quantized LLMs):QLora 是在 Lora 基礎上的進一步創新,結合了量化技術,旨在通過降低模型精度和僅訓練少量可學習參數的方式,顯著減少大型語言模型(LLM)微調所需的內存和計算資源 。其核心實現包括以下幾個關鍵技術:

    • NF4 量化:QLora 將模型權重從 FP32/FP16 壓縮為 4 位 NF4(Normal Float 4-bit)格式,這種針對正態分布權重設計的 4 位量化格式,通過 Block-wise 分塊量化(如每塊 1024 個元素)獨立計算縮放因子,相比傳統 Int8,在精度和顯存之間取得更好平衡 。權重 W 中的元素,經過歸一化等處理后,只能取 16 個固定分位數中的某一個數值的索引,從而大大減少了存儲空間 。

    • LoRA 結構適配器:繼承了 Lora 的低秩矩陣結構,在 Transformer 的自注意力層和前饋網絡中插入低秩矩陣 。參數形式為 A = W + ΔW = W + B * A * C,其中,B、A、C 是低秩矩陣(如秩 r=64),僅需訓練這些矩陣的參數 。

    • Paged Optimizer:使用 Paged Optimizer 分頁存儲梯度,將優化器狀態(如梯度)分頁存儲于 CPU 內存,僅在需要時加載到 GPU,避免顯存溢出 。這一技術在處理超大規模模型時,有效解決了顯存不足的問題 。

3. 學習率的選擇策略

學習率是大模型微調過程中的一個重要超參數,它直接影響模型的訓練速度和最終性能 。選擇合適的學習率需要綜合考慮多個因素,并采用一些有效的策略 。

  • 常用學習率范圍:在大模型微調中,常用的學習率范圍一般在 1e-5 到 1e-3 之間 。對于較小的模型或數據量較少的情況,學習率可以設置得相對較大,如 1e-4 或 1e-3,這樣模型能夠更快地收斂 。而對于大規模模型或數據量豐富的情況,學習率通常設置得較小,如 1e-5 或 5e-5,以避免模型在訓練過程中出現震蕩或過擬合 。

  • 線性預熱和余弦衰減策略:為了更好地控制學習率的變化,常常采用線性預熱(warmup)和余弦衰減(cosine annealing)策略 。線性預熱是在訓練初期,讓學習率從一個較小的值逐漸增加到設定的初始學習率,這樣可以幫助模型更快地適應訓練過程,避免在訓練初期因為學習率過大而導致梯度不穩定 。余弦衰減則是在訓練后期,讓學習率隨著訓練步數的增加而逐漸減小,模擬余弦函數的變化趨勢 。隨著訓練的進行,模型逐漸收斂,此時減小學習率可以使模型更加穩定地逼近最優解,提高模型的性能 。在訓練開始的前 10% 步數內,采用線性預熱策略,將學習率從 1e-6 逐漸增加到 5e-5;在剩余的 90% 步數內,采用余弦衰減策略,讓學習率從 5e-5 逐漸減小到 1e-6 。

  • 學習率對訓練的影響:如果學習率設置過大,模型在訓練過程中可能會跳過最優解,導致無法收斂,損失函數不斷波動甚至增大 。這就好比一個人在尋找寶藏的過程中,步伐太大,總是錯過寶藏的位置 。相反,如果學習率設置過小,模型的訓練速度會非常緩慢,需要更多的訓練時間和計算資源才能達到較好的性能 。就像一個人尋找寶藏時步伐太小,雖然能慢慢接近寶藏,但花費的時間和精力太多 。因此,選擇合適的學習率,并根據訓練過程中的情況進行調整,是大模型微調中至關重要的一步 。在訓練過程中,可以通過觀察損失函數的變化、驗證集上的性能指標等,來判斷學習率是否合適,并適時進行調整 。如果損失函數在訓練過程中突然增大,可能需要減小學習率;如果模型收斂速度過慢,可以適當增大學習率 。

(三)模型評估

1. 如何評估微調后的模型質量

評估微調后的模型質量是確保模型在實際應用中性能可靠的關鍵環節 。除了傳統的準確度指標外,還應該從多個維度進行綜合評判,以全面了解模型的性能表現 。

  • F1 分數:在分類任務中,F1 分數是一個非常重要的評估指標,它綜合考慮了精確率(Precision)和召回率(Recall) 。精確率表示模型預測為正樣本的準確性,即預測為正樣本中實際為正樣本的比例;召回率表示所有正樣本中被正確預測的比例 。F1 分數是精確率和召回率的調和平均數,能夠更全面地反映模型在正負樣本分類上的性能 。在一個二分類的垃圾郵件識別任務中,即使模型的準確度很高,但如果將大量正常郵件誤判為垃圾郵件(精確率低),或者漏判了很多垃圾郵件(召回率低),那么模型在實際應用中的效果也會很差 。而 F1 分數可以有效地衡量模型在這兩個方面的平衡,幫助我們更準確地評估模型的性能 。

  • AUC 曲線下的面積:AUC(Area Under the Curve)曲線下的面積常用于評估模型在分類任務中的性能和泛化能力 。AUC 值越大,說明模型對正樣本和負樣本的區分能力越強,模型的性能越好 。AUC 值為 1 表示模型能夠完美地區分正樣本和負樣本,而 AUC 值為 0.5 則表示模型的預測結果與隨機猜測無異 。在醫學診斷模型中,通過繪制 AUC 曲線并計算其下的面積,可以評估模型對疾病的診斷能力,AUC 值越高,說明模型能夠更準確地判斷患者是否患病 。

  • 其他評估指標:根據不同的任務類型,還有其他一些重要的評估指標 。在回歸任務中,常用的指標有平均絕對誤差(MAE)、平均平方誤差(MSE)和 R2 分數(R-squared)等 。MAE 衡量預測值與真實值之間的平均絕對誤差,MSE 衡量預測值與真實值之間的平均平方誤差,R2 分數反映模型的擬合優度 。在文本生成任務中,除了 BLEU、ROUGE 等自動評估指標外,還可以通過人工評測的方式,評估生成文本的自然度、流暢性、邏輯性等 。

2. 如何處理模型過擬合與欠擬合問題

在大模型微調過程中,過擬合和欠擬合是常見的問題,它們會嚴重影響模型的性能和泛化能力 。了解過擬合和欠擬合的表現,并采取相應的解決方法,是確保模型質量的關鍵 。

  • 過擬合的表現與解決方法:過擬合是指模型在訓練集上表現出色,但在驗證集或測試集上性能大幅下降的現象 。模型過擬合時,會過度學習訓練數據中的噪聲和細節,而忽略了數據的整體規律,導致在面對新數據時無法準確預測 。在圖像分類任務中,模型可能會記住訓練集中每個圖像的細微特征,而不是學習到圖像類別的本質特征,從而在測試集上對新的圖像分類錯誤 。為了解決過擬合問題,可以采取以下方法:

    • 擴大數據集:增加訓練數據的數量和多樣性,使模型能夠學習到更廣泛的樣本特征和模式,減少對訓練數據的過度依賴 。

    • 正則化:使用 L1 或 L2 正則化方法,對模型的參數進行約束,防止參數過大,從而減少模型的復雜度,避免過擬合 。在神經網絡中,可以在損失函數中添加 L2 正則化項,懲罰模型的參數,使其更加簡潔 。

    • 早停法:在訓練過程中,監控模型在驗證集上的性能指標,當驗證集上的性能不再提升時,及時停止訓練,避免模型在訓練集上過擬合 。

  • 欠擬合的表現與解決方法:欠擬合是指模型在訓練集和驗證集上的性能都較差,無法學習到數據中的有效模式和規律 。欠擬合通常是由于模型過于簡單,無法捕捉到數據的復雜特征,或者訓練數據不足、質量不高導致的 。在房價預測任務中,如果使用簡單的線性回歸模型,可能無法捕捉到房價與多個因素之間的復雜非線性關系,從而導致欠擬合 。解決欠擬合問題可以嘗試以下方法:

    • 調整模型復雜度:選擇更復雜、表達能力更強的模型結構,或者增加模型的層數、神經元數量等,提高模型的學習能力 。可以將簡單的線性回歸模型改為非線性的神經網絡模型,以更好地擬合房價數據 。

    • 增加訓練數據:獲取更多的訓練數據,或者對現有數據進行增強處理,如對圖像數據進行旋轉、縮放、裁剪等操作,擴充數據集規模,讓模型學習到更多的特征和規律 。

    • 調整學習率:適當增大學習率,使模型在訓練過程中更快地更新參數,加快收斂速度 。但要注意避免學習率過大導致模型不穩定 。

四、面試答題技巧與建議

(一)清晰邏輯表達

在面試中,清晰的邏輯表達是讓面試官準確理解你的觀點和思路的關鍵 。當回答微調相關問題時,務必有條理地分點闡述 。以介紹微調的原理和應用為例,可以先詳細闡述微調的基本原理,解釋在預訓練模型基礎上進行特定任務訓練的機制,讓面試官了解微調的技術核心 。再結合具體的應用場景,如醫療、金融、教育等領域,說明微調是如何在這些實際場景中發揮作用,提高模型性能的 。這樣從原理到應用的闡述方式,不僅邏輯清晰,還能讓面試官看到你對知識的深入理解和實際應用能力 。在闡述過程中,合理使用連接詞和過渡句,如 “首先”“其次”“最后”“綜上所述” 等,將各個要點有機地串聯起來,使回答更加連貫、流暢 。避免在回答中出現邏輯混亂、前后矛盾的情況,保持思維的嚴謹性和條理性 。

(二)結合實際案例

結合實際案例是提升回答可信度和說服力的重要方法 。在回答面試問題時,分享自己在項目中遇到的微調問題及解決方案,能讓面試官更直觀地了解你的實踐能力和解決問題的能力 。比如,在一個自然語言處理項目中,需要對預訓練的語言模型進行微調,以實現特定領域的文本分類任務 。在微調過程中,遇到了模型過擬合的問題,導致在測試集上的準確率較低 。針對這個問題,采取了增加訓練數據、使用正則化技術、調整學習率等一系列措施 。詳細描述這些措施的實施過程、遇到的困難以及最終取得的效果,展示自己在面對實際問題時的思考過程和解決問題的能力 。通過實際案例的分享,不僅能讓面試官看到你在大模型微調方面的實踐經驗,還能體現你的團隊協作能力、溝通能力以及應對挑戰的能力 。在描述案例時,要突出重點,簡潔明了,避免冗長和無關緊要的細節 。

(三)展示學習能力

在快速發展的大模型技術領域,展示持續學習的能力和對新技術的關注至關重要 。在面試中,可以提及自己對大模型技術的持續學習和關注,如定期閱讀相關的學術論文、參加技術研討會和在線課程等 。了解最新的研究成果和技術動態,如新型的微調技術、模型架構的創新、應用領域的拓展等,并在回答問題時適當融入這些新知識,展示自己的學習能力和對技術前沿的敏感度 。還可以分享自己在學習過程中的一些思考和見解,如對某項新技術的優勢和局限性的分析,以及如何將其應用到實際項目中的設想 。這能讓面試官看到你不僅具備扎實的基礎知識,還具有不斷學習、適應新技術發展的能力,對未來在工作中快速掌握新知識、新技能充滿信心 。強調自己對大模型技術的熱情和好奇心,表達對在該領域不斷深入學習和發展的渴望 。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/94231.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/94231.shtml
英文地址,請注明出處:http://en.pswp.cn/web/94231.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Linux: network: arp: arp_accept

文章目錄 接收 linux 代碼 arp協議的處理 接收 arp_accept - BOOLEAN Define behavior for gratuitous ARP frames who’s IP is not already present in the ARP table: 0 - don’t create new entries in the ARP table 1 - create new entries in the ARP table Both repli…

SpringBoot 整合 Langchain4j RAG 技術深度使用解析

目錄 一、前言 二、Langchain4j RAG介紹 2.1 什么是LangChain4j 2.2 LangChain4j RAG技術介紹 2.2.1 RAG技術原理 2.2.2 LangChain4j中的RAG實現 2.2.3 LangChain4j RAG技術優勢 2.2.4 LangChain4j RAG技術應用場景 三、LangChain4j RAG 技術深度使用 3.1 文檔加載與解…

百度深度學習面試:batch_size的選擇問題

題目在深度學習中&#xff0c;為什么batch_size設置為1不好&#xff1f;為什么batch_size設為整個數據集的大小也不好&#xff1f;&#xff08;假設服務器顯存足夠&#xff09;解答這是一個非常核心的深度學習超參數問題。即使顯存足夠&#xff0c;選擇極端的 batch_size 也通常…

AWS Fargate 完全指南:在無服務器容器中釋放應用潛能

容器化技術帶來了應用交付的革命,但管理運行容器的底層服務器集群卻帶來了新的復雜性。如何在不犧牲容器靈活性的前提下,擺脫服務器的運維重負? AWS Fargate 應運而生。它是一款為容器打造的無服務器計算引擎,讓您能夠專注于構建應用程序,而無需管理服務器。本文將帶您深…

WSL Ubuntu數據遷移

將 WSL 中的 Ubuntu 遷移到其他磁盤可有效釋放 C 盤空間并優化系統性能。以下是詳細步驟及注意事項&#xff1a;&#x1f4cd; ??遷移步驟????備份 WSL 數據&#xff08;防止意外丟失&#xff09;??以管理員身份打開 PowerShell 或命令提示符。導出 Ubuntu 實例為壓縮包…

基于STM32的病房監測系統/環境監測系統/人體健康監測系統

基于STM32的病房監測系統/環境監測系統/人體健康監測系統 持續更新&#xff0c;歡迎關注!!! 基于STM32的病房監測系統/環境監測系統/人體健康監測系統 隨著科技的進步與人們健康意識的提升&#xff0c;環境與人體健康監測的需求日益增長。在醫療、居住和工作環境中&#xff0c…

【適合中小企業應用的Flask網站部署指南】【小白指南系列】如何在Windows Server服務器上部署Flask網站和SSL證書開啟HTTPS

【適合中小企業應用的Flask網站部署指南】【小白指南系列】如何在Windows Server服務器上部署Flask網站和SSL證書開啟HTTPS 前言&#xff1a; 上一篇文章已經配置好Redis數據庫和網站雛形建立了。現在完善了一個比較重大的功能和進度之后&#xff0c;我們嘗試初步將Flask項目網…

std::exchange詳解

一、基本概念與函數原型 std::exchange 是 C++14 引入的標準庫函數,定義于 <utility> 頭文件。其核心功能是原子性地替換對象的值并返回舊值,適用于資源管理、狀態機更新等場景。 函數原型: template <class T, class U = T> T exchange(T& obj,

kubernetes-dashboard使用http不登錄

安裝了k8s v1.28&#xff0c;想要安裝kubernetes-dashboard以便可視化管理平臺&#xff0c;網上很多資料都是版本比較低的&#xff0c;自己摸索了很久&#xff0c;終于搞定了。直接上配置文件&#xff0c;拿去kubectl apply -f k8s-dashb.yml就行了。 # Copyright 2017 The Kub…

道路車道線分割數據集左車道右車道中線labelme格式3494張4類別

數據集格式&#xff1a;labelme格式(不包含mask文件&#xff0c;僅僅包含jpg圖片和對應的json文件)圖片數量(jpg文件個數)&#xff1a;3494標注數量(json文件個數)&#xff1a;3494標注類別數&#xff1a;4標注類別名稱:["center_lane","right_lane","…

12.Shell腳本修煉手冊--函數的基礎認知與實戰演練(fock炸彈!!)

Shell 函數的知識與實踐 文章目錄Shell 函數的知識與實踐Shell 函數介紹Shell 函數的語法Shell 函數的執行1. 不帶參數的函數執行2. 帶參數的函數執行Shell 函數的基礎實踐示例 1&#xff1a;簡單的 hello 函數&#xff08;驗證 “先定義后調用”&#xff09;示例 2&#xff1a…

微信小程序設計的請求封裝方案(request.js)

以下是為微信小程序設計的請求封裝方案&#xff0c;包含代碼示例和最佳實踐建議&#xff1a; 基礎請求封裝&#xff08;request.js&#xff09; // 基礎配置 const BASE_URL https://api.yourdomain.com; const TIMEOUT 10000;// 請求封裝函數 const request (options) >…

【Linux系統】進程信號:信號的處理

上一篇文章在介紹完信號的產生和保存后&#xff0c;我們現在對信號有了一個基本的認識&#xff0c;信號由鍵盤、系統調用、硬件異常、軟件條件等方式產生&#xff0c;然后被保存在三張表中&#xff0c;再將信號遞達&#xff0c;操作系統有三種處理方式&#xff1a;默認處理、忽…

權限管理模塊

登錄相關權限管理模塊(基礎版)模塊設計與實現優化點&#xff1a;前后端用戶驗證實現方式常見的攻擊手段及防御手段權限管理模塊(基礎版) RBAC(Role-Base Access Control&#xff0c;基于角色的訪問控制)&#xff1a;是權限管理的常用方案。 核心&#xff1a;通過用戶 - 角色 -…

征服與守護:從拉里·埃里森看八號人格的職場王者之道

真正的強者&#xff0c;從不遵守別人的規則2010年&#xff0c;加利福尼亞州的圣何塞機場迎來了一架不速之客——一架意大利產的馬基戰斗機以一種極其霸道的姿態降落在跑道上。艙蓋打開&#xff0c;走下來的不是空軍飛行員&#xff0c;而是一位身穿飛行員服、戴著墨鏡的企業家&a…

【Linux系統】命名管道與共享內存

前言&#xff1a; 上文我們講到了匿名管道【Linux系統】匿名管道以及進程池的簡單實現-CSDN博客 本文我們來講一講命名管道與共享內存 命名管道 上面我們講到&#xff0c;匿名管道只能用于有血緣關系&#xff08;尤其父子&#xff09;的進程進行通信&#xff01;但如果…

搜索體驗優化:ABP vNext 的查詢改寫(Query Rewrite)與同義詞治理

&#x1f50e; 搜索體驗優化&#xff1a;ABP vNext 的查詢改寫&#xff08;Query Rewrite&#xff09;與同義詞治理 &#x1f4da; 目錄&#x1f50e; 搜索體驗優化&#xff1a;ABP vNext 的查詢改寫&#xff08;Query Rewrite&#xff09;與同義詞治理1. 背景與問題界定 &…

Text2API與Text2SQL深度對比:自然語言驅動的數據交互革命

在數字化浪潮中&#xff0c;如何讓人機交互更加自然流暢&#xff1f;Text2API與Text2SQL技術應運而生&#xff0c;它們如同魔法般將自然語言轉化為機器可執行的指令&#xff0c;讓數據交互不再高不可攀。本文將深入剖析這兩項技術的原理、優劣勢及應用場景&#xff0c;帶您領略…

數據可視化與分析平臺設計與實現案例

數據可視化與分析平臺設計與實現案例(python) 下面分享一個完整的 Flask 數據可視化與分析平臺代碼,包含所有必要的組件和功能。這個平臺允許用戶上傳數據文件、進行基本的數據清洗、生成各種可視化圖表以及查看基礎統計分析結果。 產品設計 核心功能 數據上傳與管理(支…

Kotlin-基礎語法練習二

接上一篇博客 每個 Kotlin 程序都是由兩種部分組成的&#xff1a; 1、表達式&#xff08;Expressions&#xff09;&#xff1a;用于計算值的部分&#xff0c;比如 2 3、函數調用、變量賦值等&#xff0c;它們通常會返回一個結果。2、語句&#xff08;Statements&#xff09;…