深度學習-邏輯回歸

在這里插入圖片描述

邏輯回歸的目的

邏輯回歸只判斷樣本屬于正類的概率是多大,0-1之間

找到一組最佳的權重(w1,w2,w3,…) ,b,使得模型預測的概率 P(Y=1) 盡可能接近樣本的真實標簽(1 或 0)。

計算過程

前向傳播過程如下:

假設有一個簡單的神經網絡層,包括輸入 ( x )、權重 ( w )、偏置 ( b ) 和激活函數( σ),輸出為 ( a )。損失函數為 ( L ),我們希望計算損失函數對權重 ( w ) 的梯度。

線性變換:z=w?x+b
激活函數:a=σ(z) 這個a就是預測的概率
損失計算:L=Loss(a,y),其中 y 是真實標簽,a是預測值

σ ( z ) = 1 1 + e ? z \sigma(z) = \frac{1}{1 + e^{-z}} σ(z)=1+e?z1?

損失函數,也就是誤差

L ( y ^ , y ) = ? y log ? ( y ^ ) ? ( 1 ? y ) log ? ( 1 ? y ^ ) L(\hat{y}, y) = - y \log(\hat{y}) - (1 - y) \log(1 - \hat{y}) L(y^?,y)=?ylog(y^?)?(1?y)log(1?y^?)
訓練的目的是把L(y^,y)趨近0,讓損失最小,就是趨向于最低點
其有w與b兩個變量
在這里插入圖片描述

減小損失,進行優化

在這里插入圖片描述
這里的 α是△w的意思,w的優化就是通過減去w的偏導數來達成的

J和L是一樣的含義

偏導數如何求(計算梯度)

反向傳播中的梯度計算

  1. 計算損失函數 L L L 對激活值 a a a 的梯度:
    ? L ? a \frac{\partial L}{\partial a} ?a?L?

  2. 計算激活函數 σ \sigma σ z z z 的梯度:
    ? a ? z = σ ′ ( z ) \frac{\partial a}{\partial z} = \sigma'(z) ?z?a?=σ(z)

  3. 計算 z z z 對權重 w w w 的梯度:
    ? z ? w = x \frac{\partial z}{\partial w} = x ?w?z?=x

  4. 使用鏈式法則計算損失函數 L L L 對權重 w w w 的梯度:
    ? L ? w = ? L ? a ? ? a ? z ? ? z ? w \frac{\partial L}{\partial w} = \frac{\partial L}{\partial a} \cdot \frac{\partial a}{\partial z} \cdot \frac{\partial z}{\partial w} ?w?L?=?a?L???z?a???w?z?
    4中就是w關于L的偏導數

計算梯度代碼現

import numpy as np# 激活函數及其導數
def sigmoid(x):return 1 / (1 + np.exp(-x))
#倒數
def sigmoid_derivative(x):return sigmoid(x) * (1 - sigmoid(x))# 假設數據
x = np.array([0.5])  # 輸入
w = np.array([0.2])  # 權重
b = 0.1  # 偏置
y = np.array([0.7])  # 實際目標# 前向傳播
z = w * x + b
a = sigmoid(z)# 計算損失(均方誤差)
loss = 0.5 * (a - y) ** 2
print(f'損失對權重的梯度: {loss}')# 反向傳播(鏈式法則)
dL_da = a - y  # 損失函數對激活值的梯度
da_dz = sigmoid_derivative(z)  # 激活函數對 z 的梯度
dz_dw = x  # z 對權重 w 的梯度# 使用鏈式法則計算損失函數對權重的梯度
dL_dw = dL_da * da_dz * dz_dwprint(f'損失對權重的梯度: {dL_dw}')
#這個就是J對w的梯度,就是那個偏導數

總的來說

邏輯回歸只會給出 0 1的判斷,而我們優化的就是減小這個0 1判斷的誤差

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/87437.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/87437.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/87437.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

對象池模式:減少GC的Kotlin實戰指南

對象池模式通過對象復用機制,將對象生命周期從"創建-銷毀"轉變為"借出-歸還",顯著減少GC壓力。下面通過完整實例展示其實現細節。 一、對象池工作原理圖解 #mermaid-svg-Edrz4np9hD6DJdNi {font-family:"trebuchet ms",v…

Java接口報錯:Packet for query is too large - 解決方案與架構思考

Java接口報錯:Packet for query is too large - 解決方案與架構思考 背景與技術原理解決方案體系(擴展版)一、MySQL服務端配置(永久生效)配置文件修改(推薦生產環境) 文件路徑參考Linux: /etc/m…

7月2日作業

思維導圖 一、創建一個進程扇 代碼 #include <25041head.h>int main(int argc, const char *argv[]) {pid_t pid;for(int i1;i<4;i){pidfork();if(pid>0){sleep(1);}if(pid0){printf("我是子進程%d:%d,父進程%d\n",i,getpid(),getppid());sleep(1);re…

設計模式(九)

職責鏈模式&#xff08;Chain of Responsibility&#xff09;詳解 一、核心概念 職責鏈模式將請求的發送者和接收者解耦&#xff0c;使多個對象都有機會處理請求。這些對象連接成一條鏈&#xff0c;請求沿著鏈傳遞&#xff0c;直到有一個對象處理它為止。該模式允許動態調整處…

左神算法之Zigzag方式打印矩陣

目錄 Zigzag方式打印矩陣1. 題目2. 解釋3. 思路4. 代碼5. 總結 Zigzag方式打印矩陣 1. 題目 用zigzag的方式打印矩陣&#xff0c;比如下面的矩陣&#xff1a; 0 1 2 3 4 5 6 7 8 9 10 11打印順序為&#xff1a;0 1 4 8 5 2 3 6 9 10 7 11 2. 解釋 Zigzag打印矩陣是指按照…

【前端批量下載圖片,并打包成壓縮包下載】

一、需求說明 我現在有個需求&#xff1a; 1.列表中有個下載按鈕&#xff0c;點擊下載&#xff0c;將列表中所有的圖片打成壓縮包&#xff0c;并下載 2.效果演示點擊查看效果 最終效果&#xff1a; 二、安裝下載插件 實現此功能需要兩個插件&#xff1a;jszip、file-saver …

NV133NV137美光固態閃存NV147NV148

NV133NV137美光固態閃存NV147NV148 美光固態閃存技術矩陣深度解析&#xff1a;NV133至NV148的全面較量 一、性能參數&#xff1a;數據高速公路的“車速”比拼 讀寫速度&#xff1a;從“鄉間小道”到“高鐵動脈” 美光NV系列固態閃存的核心競爭力在于其讀寫速度的躍升。以NV15…

從LLM到WM:大語言模型如何進化成具身世界模型?

1.引言這學期在方老師開設的《機器人大模型基礎和前沿》選修課上接觸并學習了具身智能方面的相關知識。作為交互組的組長&#xff0c;我和組員們在幻爾機器狗的功能開發上有切身的實踐與探索&#xff0c;在張江具身智能大會上&#xff0c;也見識到了前沿的技術和行業的發展現狀…

第十六屆藍橋杯C++B組國賽題解+復盤總結

文章目錄 寫在前面1、新型鎖2、互質藏卡3、數字輪盤4、斐波那契字符串5、項鏈排列6、藍橋星數字7、翻倍8、近似回文字符串9、子串去重10、涂格子 寫在前面 打了三年&#xff0c;第十六屆是我最后一次參加了&#xff0c;終于如愿以償國一啦。 這場的大多題目都補了&#xff0c;…

【TTS】2024-2025年主流開源TTS模型的綜合對比分析

以下是針對2024-2025年主流開源與商用TTS模型的綜合技術選型分析&#xff0c;結合GitHub熱度、功能特性、部署成本及中文支持等核心維度進行對比&#xff0c;并附詳細實踐建議。 一、開源TTS模型對比&#xff08;2024-2025年主流方案&#xff09; 模型名稱開源/廠商克隆支持中…

redis延時雙刪,為什么第一次刪除

Redis延時雙刪策略中第一次刪除的作用 在緩存與數據庫一致性方案中&#xff0c;"延時雙刪"&#xff08;Delayed Double-Delete&#xff09;是一種經典策略&#xff0c;其核心流程如下&#xff1a; 第一次刪除&#xff1a;更新數據庫前&#xff0c;先刪除緩存 更新數…

深度學習1(深度學習和機器學習的區別,神經網絡)

深度學習和機器學習的區別 深度學習和機器學習都是人工智能&#xff08;AI&#xff09;的重要分支&#xff0c;但它們在方法、應用場景和技術細節上有顯著區別。 機器學習通過算法讓計算機從數據中學習規律&#xff0c;并做出預測或決策。核心是特征工程&#xff08;人工提取數…

這才叫窗口查詢!TDEngine官方文檔沒講透的實戰玩法

第1章&#xff1a;你不知道的TDEngine窗口查詢——開局就不簡單 先別急著翻白眼&#xff0c;提到時間窗口查詢&#xff0c;可能你腦子里立馬浮現的就是那些常規套路&#xff1a;GROUP BY time_interval、FIRST()、LAST()&#xff0c;再加上點AVG()和MAX()&#xff0c;一鍋端。…

Day50 預訓練模型+CBAM模塊

目錄 一、resnet結構解析 二、CBAM放置位置的思考 三、針對預訓練模型的訓練策略 a.差異化學習率 b.三階段式解凍與微調 (Progressive Unfreezing) 四、嘗試對vgg16cbam進行微調策略 是否可以對于預訓練模型增加模塊來優化其效果&#xff0c;這里會遇到一個問題&#xff…

快速說一下TDD BDD DDD

基本概念 TDD&#xff08;測試驅動開發&#xff09;、BDD&#xff08;行為驅動開發&#xff09;和 DDD&#xff08;領域驅動設計&#xff09;是軟件開發領域中幾個重要的概念&#xff0c;它們各自有著獨特的側重點與應用場景&#xff0c;以下為你詳細介紹&#xff1a; 測試驅…

淺析基于深度學習算法的英文OCR技術工作原理及其應用場景

在數字化信息飛速發展的當下&#xff0c;大量的文本信息以各種形式存在&#xff0c;從傳統的紙質文檔到電子圖片中的文字內容。如何高效地將這些非結構化的文本轉化為計算機能夠理解和處理的格式&#xff0c;成為了提高信息處理效率的關鍵。英文 OCR&#xff08;Optical Charac…

AI時代SEO關鍵詞策略

內容概要 在人工智能&#xff08;AI&#xff09;驅動的新時代&#xff0c;搜索引擎優化&#xff08;SEO&#xff09;關鍵詞策略正迎來顛覆性變革。本篇文章將系統解析AI技術如何重塑關鍵詞研究、內容優化及流量提升的全過程&#xff0c;幫助企業實現高效可持續的在線曝光。通過…

免費一鍵自動化申請、續期、部署、監控所有 SSL/TLS 證書,ALLinSSL開源免費的 SSL 證書自動化管理平臺

目錄 一、前言二、ALLinSSL 簡介亮點核心功能 三、操作步驟部署安裝授權DNS服務商授權你的主機服務器自動化部署ssl測試自動申請ssl證書 一、前言 SSL證書是每個網站必備的&#xff0c;但是現在的免費的ssl證書有效期是3個月&#xff0c;以后CA/B Forum 調整 SSL 證書最長有效期…

如何高效清理C盤、釋放存儲空間,讓電腦不再卡頓。

以下是針對Windows系統的C盤深度清理全攻略&#xff0c;包含系統級優化和進階操作&#xff0c;可釋放30%-70%的冗余空間&#xff1a; 一、系統自帶工具快速清理&#xff08;5分鐘見效&#xff09; 磁盤清理工具 按WinR → 輸入cleanmgr → 選擇C盤重點勾選&#xff1a; ? Wind…

AI 如何批量提取 Word 表格中的字段數據到 Excel 中?

在日常工作中&#xff0c;我們經常會接觸到大量 Word 表格——學生登記表、客戶信息表、報名信息表……這些表格數據往往格式不一&#xff0c;但有一個共同的需求&#xff1a; 從中提取出“字段-值”結構&#xff0c;統一導入 Excel&#xff0c;方便后續分析處理。 傳統手工操作…