機器學習筆記——常用損失函數

大家好,這里是好評筆記,公主號:Goodnote,專欄文章私信限時Free。本筆記介紹機器學習中常見的損失函數和代價函數,各函數的使用場景。

在這里插入圖片描述

熱門專欄

機器學習

機器學習筆記合集

深度學習

深度學習筆記合集

文章目錄

  • 熱門專欄
    • 機器學習
    • 深度學習
  • 損失函數
    • 一、回歸問題中的損失函數
      • 1. 均方誤差(Mean Squared Error, MSE)
      • 2. 平均絕對誤差(Mean Absolute Error, MAE)
      • 3. 對數余弦損失(Log-Cosh Loss)
      • 4. Huber 損失(Huber Loss)
      • 5. 平均平方對數誤差(Mean Squared Logarithmic Error, MSLE)
      • 總結
    • 二、分類問題中的損失函數
      • 1. 0-1 損失(0-1 Loss)
      • 2. 對數損失(Log Loss)或交叉熵損失(Cross-Entropy Loss)
        • 二分類問題
        • 多分類問題
      • 3. Focal 損失(Focal Loss)
      • 4. Hinge 損失(合頁損失)
      • 5. Kullback-Leibler 散度(KL Divergence)
      • 總結

損失函數

一、回歸問題中的損失函數

1. 均方誤差(Mean Squared Error, MSE)

定義

MSE = 1 n ∑ i = 1 n ( y i ? y ^ i ) 2 \text{MSE} = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 MSE=n1?i=1n?(yi??y^?i?)2

  • 描述:MSE 衡量的是預測值和真實值之間的平方誤差的平均值。對較大的誤差會進行更大的懲罰,因此它對異常值(outliers)非常敏感。
  • 應用場景:線性回歸、嶺回歸等模型的損失函數。
  • 優點:簡單易于理解,容易求導和計算。
  • 缺點對異常值敏感,可能導致模型被少數異常樣本主導。

2. 平均絕對誤差(Mean Absolute Error, MAE)

定義
MAE = 1 n ∑ i = 1 n ∣ y i ? y ^ i ∣ \text{MAE} = \frac{1}{n} \sum_{i=1}^{n} |y_i - \hat{y}_i| MAE=n1?i=1n?yi??y^?i?

  • 描述:MAE 衡量的是預測值和真實值之間的絕對誤差的平均值。它對每個誤差的懲罰是線性的,因此對異常值的懲罰不如 MSE 嚴重。
  • 應用場景:在對異常值不敏感的回歸任務中使用。
  • 優點對異常值不敏感,能夠更加穩定地反映模型性能。
  • 缺點:在優化過程中,絕對值函數不可導,求解困難。

3. 對數余弦損失(Log-Cosh Loss)

定義
Log-Cosh?Loss = 1 n ∑ i = 1 n log ? ( cosh ? ( y i ? y ^ i ) ) \text{Log-Cosh Loss} = \frac{1}{n} \sum_{i=1}^{n} \log\left(\cosh\left(y_i - \hat{y}_i\right)\right) Log-Cosh?Loss=n1?i=1n?log(cosh(yi??y^?i?))

說明: cosh ? ( x ) \cosh(x) cosh(x): 雙曲余弦函數,公式為 cosh ? ( x ) = e x + e ? x 2 \cosh(x) = \frac{e^x + e^{-x}}{2} cosh(x)=2ex+e?x?

  • 描述:對數余弦損失是Huber 損失的變體,它的行為類似于 MAE,同時對大誤差有更小的增長率。
  • 應用場景:適用于異常值影響較大的回歸任務。
  • 優點:具有平滑性,易于求導對小誤差敏感對大誤差魯棒
  • 缺點:相比其他損失函數計算復雜度較高。

4. Huber 損失(Huber Loss)

定義
L ( y i , y ^ i ) = { 1 2 ( y i ? y ^ i ) 2 if? ∣ y i ? y ^ i ∣ ≤ δ , δ ? ∣ y i ? y ^ i ∣ ? 1 2 δ 2 if? ∣ y i ? y ^ i ∣ > δ . L(y_i, \hat{y}_i) = \begin{cases} \frac{1}{2} (y_i - \hat{y}_i)^2 & \text{if } |y_i - \hat{y}_i| \leq \delta, \\ \delta \cdot |y_i - \hat{y}_i| - \frac{1}{2} \delta^2 & \text{if } |y_i - \hat{y}_i| > \delta. \end{cases} L(yi?,y^?i?)={21?(yi??y^?i?)2δ?yi??y^?i??21?δ2?if?yi??y^?i?δ,if?yi??y^?i?>δ.?

  • δ \delta δ: 超參數,定義切換 MSE 和 MAE 的閾值。
  • ∣ y i ? y ^ i ∣ |y_i - \hat{y}_i| yi??y^?i?: 誤差的絕對值。
  • 描述:Huber 損失是MSE 和 MAE 的折中。對于小誤差,使用 MSE;對于大誤差,使用 MAE,從而對異常值有一定的魯棒性。
  • 應用場景:回歸問題中存在異常值,但又不希望過于忽略異常值的場景。
  • 優點對小誤差敏感,同時對大誤差具有一定的抗干擾性
  • 缺點:參數 ( δ \delta δ) 需要手動調節,不同數據集效果不同。

5. 平均平方對數誤差(Mean Squared Logarithmic Error, MSLE)

定義
MSLE = 1 n ∑ i = 1 n ( log ? ( 1 + y i ) ? log ? ( 1 + y ^ i ) ) 2 \text{MSLE} = \frac{1}{n} \sum_{i=1}^{n} \left( \log(1 + y_i) - \log(1 + \hat{y}_i) \right)^2 MSLE=n1?i=1n?(log(1+yi?)?log(1+y^?i?))2

  • n n n: 數據點的總數。
  • y i y_i yi?: 第 i i i 個真實值(必須為非負數)。
  • y ^ i \hat{y}_i y^?i?: 第 i i i 個預測值(必須為非負數)。
  • log ? ( 1 + x ) \log(1 + x) log(1+x): 對 x x x 加 1 后取自然對數,用于平滑較小的值和避免對 0 的對數操作。
  • 描述:MSLE 用于處理目標值差異較大有顯著指數增長趨勢的情況。它更關注相對誤差,而非絕對誤差。
  • 應用場景:如人口增長預測、市場銷量預測等場景。
  • 優點:對大數值的預測更穩定,對目標值的比例關系有更好的衡量。
  • 缺點:當目標值非常小時,懲罰效果不明顯。

總結

損失函數描述應用場景優點缺點
均方誤差 (MSE)衡量預測值和真實值之間平方誤差的平均值,對較大誤差進行更大懲罰。線性回歸、嶺回歸等簡單易于理解,容易求導。對異常值敏感
平均絕對誤差 (MAE)衡量預測值和真實值之間絕對誤差的平均值對異常值不敏感的回歸任務對異常值不敏感,反映模型性能更穩定。優化困難,絕對值函數不可導
對數余弦損失 (Log-Cosh)Huber 損失的變體,既能捕捉小誤差,也對大誤差有更小的增長率異常值影響較大的回歸任務平滑性好,易于求導,適應大誤差和小誤差。計算復雜度高。
Huber 損失 (Huber Loss)結合MSE和MAE,小誤差時使用 MSE,大誤差時使用 MAE,平衡異常值的影響。存在異常值但不希望完全忽略的場景對小誤差敏感,對大誤差有抗干擾性。需調節參數 (delta)。
平均平方對數誤差 (MSLE)衡量目標值差異大且有指數增長趨勢的情況,關注相對誤差而非絕對誤差。人口增長預測、市場銷量預測等對大數值預測更穩定,適應有比例關系的數據對極小值目標效果不佳。

二、分類問題中的損失函數

1. 0-1 損失(0-1 Loss)

定義

L ( y , y ^ ) = { 0 , if? y = y ^ , 1 , if? y ≠ y ^ . L_(y, \hat{y}) = \begin{cases} 0, & \text{if } y = \hat{y}, \\ 1, & \text{if } y \neq \hat{y}. \end{cases} L(?y,y^?)={0,1,?if?y=y^?,if?y=y^?.?

  • 描述:0-1 損失表示分類是否正確0 為正確分類,1 為錯誤分類。它無法直接用于模型優化,只能用于評價模型性能。
  • 應用場景:模型性能的評估,如準確率(Accuracy)的計算。
  • 優點:簡單直觀,能夠清晰判斷分類是否正確。
  • 缺點不可導,無法用于梯度優化

2. 對數損失(Log Loss)或交叉熵損失(Cross-Entropy Loss)

  • 描述:交叉熵損失衡量的是預測分布和真實分布之間的距離。在二分類與 Sigmoid 函數結合;在多分類與 Softmax 函數結合
  • 應用場景:廣泛用于邏輯回歸、神經網絡等分類任務。
  • 優點:能夠很好地度量概率分布之間的差異,梯度計算簡單。
  • 缺點對數據不平衡較為敏感
二分類問題

在二分類問題中,交叉熵損失衡量真實標簽 ( y y y ) 和預測概率 ( y ^ \hat{y} y^? ) 之間的差異。公式為:

L ( y , y ^ ) = ? [ y log ? ( y ^ ) + ( 1 ? y ) log ? ( 1 ? y ^ ) ] L(y, \hat{y}) = - \left[ y \log(\hat{y}) + (1 - y) \log(1 - \hat{y}) \right] L(y,y^?)=?[ylog(y^?)+(1?y)log(1?y^?)]
符號說明

  • y ∈ { 0 , 1 } y \in \{0, 1\} y{0,1}:真實標簽(0 表示負類,1 表示正類)。
  • y ^ ∈ [ 0 , 1 ] \hat{y} \in [0, 1] y^?[0,1]:預測為正類的概率。
多分類問題

對于 k k k 個類別的多分類問題,交叉熵損失擴展為多個輸出類的加權損失,公式為:

L ( y , y ^ ) = ? ∑ i = 1 k y i log ? ( y ^ i ) L(y, \hat{y}) = - \sum_{i=1}^{k} y_i \log(\hat{y}_i) L(y,y^?)=?i=1k?yi?log(y^?i?)

符號說明

  • k k k:類別數量。
  • y i ∈ { 0 , 1 } y_i \in \{0, 1\} yi?{0,1}:第 i i i 類的真實標簽,使用獨熱編碼表示(只有一個值為 1,其余為 0)。
  • y ^ i ∈ [ 0 , 1 ] \hat{y}_i \in [0, 1] y^?i?[0,1]:模型預測的第 i i i 類的概率,通常通過 softmax 函數獲得。

Sigmoid 函數:

  • 公式:
    σ ( z ) = 1 1 + e ? z \sigma(z)=\frac1{1+e^{-z}} σ(z)=1+e?z1?
  • 其中, z z z 是模型的線性輸出,即預測值。
  • Sigmoid 函數將模型的線性輸出 z z z轉化為一個介于 0 和 1 之間的值,表示屬于類別 1 的概率。

交叉熵損失:

  • 在二分類任務中,真實標簽 y y y通常取 0(負類)或1(正類)。
  • 交叉熵損失的公式為 L o s s = ? [ y ? log ? ( p ) + ( 1 ? y ) ? log ? ( 1 ? p ) ] \mathrm{Loss}=-\left[y\cdot\log(p)+(1-y)\cdot\log(1-p)\right] Loss=?[y?log(p)+(1?y)?log(1?p)]
    • 其中, p = σ ( z ) p=\sigma(z) p=σ(z)是經過 Sigmoid 函數后模型預測屬于類別 1 的概率。

Softmax 函數:

  • 公式: S o f t m a x ( z i ) = e z i ∑ j e z j \mathrm{Softmax}(z_i) = \frac{e^{z_i}}{\sum_j e^{z_j}} Softmax(zi?)=j?ezj?ezi??
  • 其中, z i z_i zi? 是第 i i i 個類別的得分, ∑ j e z j \sum_j e^{z_j} j?ezj? 是所有類別的得分的指數和。
  • Softmax 函數將每個類別的得分 z i z_i zi? 轉化為一個概率 p i p_i pi?,即樣本屬于第 i i i 個類別的概率。

交叉熵損失:

  • 在多分類任務中,真實標簽 y y y 是一個 one-hot 編碼向量,即樣本的真實類別的概率是 1,其他類別的概率是 0。
  • 交叉熵損失的公式: Loss = ? ∑ i y i ? log ? ( p i ) \text{Loss} = -\sum_i y_i \cdot \log(p_i) Loss=?i?yi??log(pi?)
    • 其中, p i p_i pi? 是 Softmax 函數輸出的屬于類別 i i i 的概率, y i y_i yi? 是真實的類別標簽,通常為 0 或 1。

3. Focal 損失(Focal Loss)

定義
Focal?Loss = ? α t ( 1 ? p ^ t ) γ log ? ( p ^ t ) \text{Focal Loss} = -\alpha_t (1 - \hat{p}_t)^\gamma \log(\hat{p}_t) Focal?Loss=?αt?(1?p^?t?)γlog(p^?t?)

  • 其中:
    • p ^ t \hat{p}_t p^?t? 是模型對正確類別的預測概率。
    • α t \alpha_t αt? 是類別平衡權重,用來調整類別不平衡問題, α t ∈ [ 0 , 1 ] \alpha_t \in [0, 1] αt?[0,1],通常用于為不同類別分配不同的權重。
    • γ \gamma γ 是調節因子,控制模型對難分類樣本的關注程度,常取值為 0 到 5 之間,通常選取 γ = 2 \gamma = 2 γ=2 效果較好。

注:t 是該樣本的真實類別標簽

  1. p ^ t \hat{p}_{t} p^?t?: 這是模型對樣本真實類別 t t t 的預測概率。假設樣本屬于類別 t t t,則 p ^ t \hat{p}_{t} p^?t? 就是模型對類別 t t t 的預測概率。如果是二分類任務, t t t 為 1 代表正類,為 0 代表負類;如果是多分類任務, t t t 是類別的索引。
  2. α t \alpha_{t} αt?: 這是類別 t t t 的權重系數。通過 t t t,可以為當前樣本所屬類別 t t t 分配一個權重 α t \alpha_{t} αt?。對于不平衡數據集來說, α t \alpha_{t} αt? 通常設置為少數類的權重大,主要用來調整損失函數對不同類別樣本的關注程度。
  • 描述:Focal 損失是對交叉熵損失的改進,用于解決類別不平衡問題。通過調節參數 ( γ \gamma γ ) 和 ( α \alpha α ),它增加了對困難樣本的關注,降低了對易分類樣本的影響。
  • 應用場景:目標檢測中的單階段檢測器(如 RetinaNet),以及其他類別不平衡的分類問題。
  • 優點:有效解決類別不平衡問題,增強模型對困難樣本的關注。
  • 缺點:參數選擇復雜,訓練時間較長。

4. Hinge 損失(合頁損失)

定義:對于二分類問題:
L ( y , y ^ ) = max ? ( 0 , 1 ? y ? y ^ ) L(y, \hat{y}) = \max(0, 1 - y \cdot \hat{y}) L(y,y^?)=max(0,1?y?y^?)

其中, y ∈ { ? 1 , 1 } y \in \{ -1, 1 \} y{?1,1} y ^ \hat{y} y^?是模型的預測輸出。

  • 描述:Hinge 損失用于支持向量機(SVM)中。它在樣本被正確分類且間隔大于 1 時,損失為 0;否則損失為 1。旨在最大化樣本的分類間隔。
  • 應用場景:線性支持向量機、核支持向量機等。
  • 優點:有助于最大化分類間隔,提高模型的泛化能力。
  • 缺點:對于誤差大的樣本損失增長過快。

5. Kullback-Leibler 散度(KL Divergence)

定義
K L ( p ∥ q ) = ∑ i p ( x i ) log ? p ( x i ) q ( x i ) KL(p \parallel q) = \sum_i p(x_i) \log \frac{p(x_i)}{q(x_i)} KL(pq)=i?p(xi?)logq(xi?)p(xi?)?

  • 描述:KL 散度衡量兩個概率分布之間的差異,常用于無監督學習中的聚類分析
  • 應用場景:概率模型的優化,如變分自編碼器(VAE)、生成對抗網絡(GAN)中的判別模型。
  • 優點:對概率分布之間的微小差異非常敏感
  • 缺點:對稀疏分布的概率模型不穩定

總結

損失函數描述應用場景優點缺點
0-1 損失 (0-1 Loss)分類正確為 0,錯誤為 1,用于衡量分類是否正確。準確率等分類性能評估簡單直觀。不可導,無法用于優化
交叉熵損失 (Cross-Entropy)衡量預測分布和真實分布之間的距離,二分類結合 Sigmoid,多分類結合 Softmax。邏輯回歸、神經網絡等分類任務很好地衡量概率分布差異,梯度計算簡單。對數據不平衡敏感
Focal 損失 (Focal Loss)交叉熵的改進,通過調節 ( gamma ) 和 ( alpha ),增加對困難樣本的關注,減少易分類樣本影響,解決類別不平衡問題。類別不平衡問題,如目標檢測 (RetinaNet)增強對困難樣本的關注,解決類別不平衡參數選擇復雜,訓練時間較長。
Hinge 損失 (合頁損失)用于 SVM,正確分類且間隔大于 1 時損失為 0,旨在最大化分類間隔。線性 SVM、核 SVM提高泛化能力,有助于最大化分類間隔對誤差大的樣本損失增長快。
KL 散度 (KL Divergence)衡量兩個概率分布的差異,常用于無監督學習中的聚類分析。概率模型優化,如 VAE、GAN概率分布的差異敏感稀疏分布不穩定

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/70313.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/70313.shtml
英文地址,請注明出處:http://en.pswp.cn/web/70313.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Wireshark使用介紹

文章目錄 Wireshark介紹Wireshark使用工作模式介紹1. 混雜模式(Promiscuous Mode)2. 普通模式(Normal Mode)3. 監視模式(Monitor Mode) 界面分區捕獲過濾器語法基本語法邏輯運算符高級語法使用示例捕獲過濾…

#滲透測試#批量漏洞挖掘#暢捷通T+SQL注入漏洞

免責聲明 本教程僅為合法的教學目的而準備,嚴禁用于任何形式的違法犯罪活動及其他商業行為,在使用本教程前,您應確保該行為符合當地的法律法規,繼續閱讀即表示您需自行承擔所有操作的后果,如有異議,請立即停止本文章讀。 目錄 一、漏洞全景解析 1. 高危漏洞案例庫 2.…

【小游戲】C++控制臺版本俄羅斯輪盤賭

制作團隊:洛谷813622(Igallta) 989571(_ayaka_) Mod:_ayaka_ 雙人模式:Igallta 公告: 原先的9.8改名為 Alpha 1.0,以后每次更新都增加 0.1。 Alpha 1.11 改為 Beta 1…

nvm安裝、管理node多版本以及配置環境變量【保姆級教程】

引言 不同的項目運行時可能需要不同的node版本才可以運行,由于來回進行卸載不同版本的node比較麻煩;所以需要使用node工程多版本管理。 本人在配置時,通過網絡搜索教程,由于文章時間過老,或者文章的互相拷貝導致配置時…

框架--Mybatis3

一.特殊符號處理 < < > > " &quot; &apos; & &amp; 除了可以使用上述轉義字符外&#xff0c;還可以使<![CDATA[ ]]>用來包裹特殊字符。 二.mybatis 一級緩存二級緩存 1.為什么緩存 緩存&#xff1a;數據緩存&#xf…

純新手教程:用llama.cpp本地部署DeepSeek蒸餾模型

0. 前言 llama.cpp是一個基于純C/C實現的高性能大語言模型推理引擎&#xff0c;專為優化本地及云端部署而設計。其核心目標在于通過底層硬件加速和量化技術&#xff0c;實現在多樣化硬件平臺上的高效推理&#xff0c;同時保持低資源占用與易用性。 最近DeepSeek太火了&#x…

Netty入門詳解

引言 Netty 是一個基于 Java 的高性能、異步事件驅動的網絡應用框架&#xff0c;用于快速開發可維護的高性能網絡服務器和客戶端。它提供了一組豐富的 API&#xff0c;使得開發人員能夠輕松地處理各種網絡協議&#xff0c;如 TCP、UDP 等&#xff0c;并且支持多種編解碼方式&a…

物聯網簡介集合

物聯網&#xff08;IoT&#xff09;指的是物理設備&#xff08;如電器和車輛&#xff09;之間的互聯互通。這些設備嵌入了軟件、傳感器和連接功能&#xff0c;使其能夠相互連接并交換數據。這項技術實現了從龐大的設備網絡中收集和共享數據&#xff0c;為打造更高效、自動化的系…

【分布式理論11】分布式協同之分布式事務(一個應用操作多個資源):從剛性事務到柔性事務的演進

文章目錄 一. 什么是分布式事務&#xff1f;二. 分布式事務的挑戰三. 事務的ACID特性四. CAP理論與BASE理論1. CAP理論1.1. 三大特性1.2. 三者不能兼得 2. BASE理論 五. 分布式事務解決方案1. 兩階段提交&#xff08;2PC&#xff09;2. TCC&#xff08;Try-Confirm-Cancel&…

【Quest開發】全身跟蹤

軟件&#xff1a;Unity 2022.3.51f1c1、vscode、Meta XR All in One SDK V72 硬件&#xff1a;Meta Quest3 最終效果&#xff1a;能像meta的操作室沉浸場景一樣根據頭盔移動來推斷用戶姿勢&#xff0c;實現走路、蹲下、手勢匹配等功能 需要借助UnityMovement這個包 GitHub …

AI全棧開發_人工智能AI大模型 Prompt提示詞工程詳解(全方位介紹及運用)

AI引領的第四次工業革命正席卷而來&#xff0c;如何精準把握這一歷史性的機遇&#xff0c;將成為我們這一代人不容忽視且需深入思考與積極行動的重要課題。未來幾年AI將會像計算機一樣快速普及&#xff0c;面對這一歷史性的第一波紅利&#xff0c;你是否已準備好把握機遇&#…

小米平板怎么和電腦共享屏幕

最近嘗試使用小米平板和電腦屏幕分屏互聯 發現是需要做特殊處理的&#xff0c;需要下載一款電腦安裝包&#xff1a;小米妙享 關于這個安裝包&#xff0c;想吐槽的是&#xff1a; 沒有找到官網渠道&#xff0c;是通過其他網絡方式查到下載的 不附錄鏈接&#xff0c;原因是因為地…

java | MyBatis-plus映射和golang映射對比

文章目錄 Java實體類和數據庫的映射1.默認駝峰命名規則2.自定義字段映射3.關閉駝峰命名規則4.JSON序列化映射 Golang1. 結構體與表的映射2. 字段與列的映射3. 關聯關系映射4. 其他映射相關標簽 這篇也是做數據庫映射方面的對比&#xff1a; Java 實體類和數據庫的映射 1.默認…

訊方·智匯云校華為官方授權培訓機構

1.官方授權 訊方智匯云校是華為領先級授權培訓機構&#xff08;華為授權培訓合作伙伴&#xff08;HALP&#xff09;體系&#xff0c;分為認證、優選、領先三個等級&#xff0c;領先級是HALP最高級&#xff09;&#xff0c;代表著華為對培訓合作伙伴在專業能力、師資隊伍、合作…

避免踩雷!CUDA與Anaconda兼容性配置完全手冊

CUDA與Anaconda深度學習環境配置指南 目錄 核心概念解析安裝場景分析版本沖突處理最佳實踐指南常見問題解答 核心概念解析 1. 組件對比表 組件作用域包含內容查看方式NVIDIA驅動系統級GPU底層通信支持nvidia-smiCUDA Toolkit系統級完整開發工具鏈(nvcc等)nvcc --versioncon…

掌握.NET Core后端發布流程,如何部署后端應用?

無論你是剛接觸.NET Core的新手還是已有經驗的開發者&#xff0c;在這篇文章中你將會學習到一系列實用的發布技巧與最佳實踐&#xff0c;幫助你高效順利地將.NET Core后端應用部署到生產環境中 目錄 程序發布操作 Docker容器注冊表 文件夾發布 導入配置文件 網站運行操作 …

一周學會Flask3 Python Web開發-request請求對象與url傳參

鋒哥原創的Flask3 Python Web開發 Flask3視頻教程&#xff1a; 2025版 Flask3 Python web開發 視頻教程(無廢話版) 玩命更新中~_嗶哩嗶哩_bilibili request請求對象封裝了從客戶端發來的請求報文信息&#xff0c;我們可以從中獲取所有數據。 request對象包含的常用屬性&…

2025年2月深度實測!DeepSeek、OpenAI o1、Gemini打造爆款應用及對比

我在網上看到了關于DeepSeek R1的各種說法,這是一個開源模型,其能力即便不比OpenAI o1等付費模型強,也與之相當: 由于我在日常工作中廣泛使用這些人工智能模型(使用Cursor AI),我決定看看哪種模型最適合我。 在進行了200次Cursor請求后,我將分享我的實驗結果。 一、…

OpenCV機器學習(6)樸素貝葉斯分類器(Naive Bayes Classifier)cv::ml::NormalBayesClassifier的使用

操作系統&#xff1a;ubuntu22.04 OpenCV版本&#xff1a;OpenCV4.9 IDE:Visual Studio Code 編程語言&#xff1a;C11 算法描述 cv::ml::NormalBayesClassifier 是 OpenCV 機器學習模塊中的一部分&#xff0c;用于實現樸素貝葉斯分類器&#xff08;Naive Bayes Classifier&a…

LLaVA-CoT: Let Vision Language Models Reason Step-by-Step論文解讀

文章目錄 前言一、摘要一、引言二、文獻綜述1. Visual reasoning with large language models2. Chain-of-thought in large language models3. Inference time scaling 三、方法1. Enhancing Reasoning Capability through Structured Thinking1. Reasoning Stages2. Data Pre…