簡單線性回歸模型原理推導(最小二乘法)和案例解析

線性回歸是一種用于建模自變量與因變量之間線性關系的統計方法,核心是通過最小化誤差平方和估計模型參數。以下從數學原理推導和案例兩方面詳細說明。

一、線性回歸模型的數學原理推導

1. 模型定義

線性回歸假設因變量 y 與自變量 x 存在線性關系,具體分為:

  • 簡單線性回歸(單自變量)

yi=β0+β1xi+εi(i=1,2,...,n)y_i = \beta_0 + \beta_1 x_i + \varepsilon_i \quad (i=1,2,...,n)yi?=β0?+β1?xi?+εi?(i=1,2,...,n)

2. 參數估計:最小二乘法(OLS)

要詳細推導 β1=∑(xi?xˉ)(yi?yˉ)∑(xi?xˉ)2\boldsymbol{\beta_1 = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2}}β1?=(xi??xˉ)2(xi??xˉ)(yi??yˉ?)? 的過程,我們從 最小二乘法的正規方程 出發,逐步化簡:

步驟 1:建立誤差平方和與正規方程

簡單線性回歸模型為:
yi=β0+β1xi+εi(i=1,2,...,n)y_i = \beta_0 + \beta_1 x_i + \varepsilon_i \quad (i=1,2,...,n)yi?=β0?+β1?xi?+εi?(i=1,2,...,n)

誤差平方和(SSE)為:
SSE=∑i=1n(yi?β0?β1xi)2\text{SSE} = \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2SSE=i=1n?(yi??β0??β1?xi?)2

為最小化 SSE,對 β0\beta_0β0?β1\beta_1β1? 求偏導并令其為 0,得到 正規方程

(1)對 β0\beta_0β0? 求偏導

?SSE?β0=?2∑i=1n(yi?β0?β1xi)=0\frac{\partial \text{SSE}}{\partial \beta_0} = -2 \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i) = 0?β0??SSE?=?2i=1n?(yi??β0??β1?xi?)=0

整理得:
∑i=1nyi=nβ0+β1∑i=1nxi\sum_{i=1}^n y_i = n\beta_0 + \beta_1 \sum_{i=1}^n x_ii=1n?yi?=nβ0?+β1?i=1n?xi?

兩邊除以 nnn(記 xˉ=1n∑xi\bar{x} = \frac{1}{n}\sum x_ixˉ=n1?xi?yˉ=1n∑yi\bar{y} = \frac{1}{n}\sum y_iyˉ?=n1?yi?,即樣本均值),得:
yˉ=β0+β1xˉ?β0=yˉ?β1xˉ(1)\bar{y} = \beta_0 + \beta_1 \bar{x} \quad \Rightarrow \quad \boldsymbol{\beta_0 = \bar{y} - \beta_1 \bar{x}} \tag{1}yˉ?=β0?+β1?xˉ?β0?=yˉ??β1?xˉ(1)

(2)對 β1\beta_1β1? 求偏導

?SSE?β1=?2∑i=1nxi(yi?β0?β1xi)=0\frac{\partial \text{SSE}}{\partial \beta_1} = -2 \sum_{i=1}^n x_i (y_i - \beta_0 - \beta_1 x_i) = 0?β1??SSE?=?2i=1n?xi?(yi??β0??β1?xi?)=0

整理得:
∑i=1nxiyi=β0∑i=1nxi+β1∑i=1nxi2(2)\sum_{i=1}^n x_i y_i = \beta_0 \sum_{i=1}^n x_i + \beta_1 \sum_{i=1}^n x_i^2 \tag{2}i=1n?xi?yi?=β0?i=1n?xi?+β1?i=1n?xi2?(2)

步驟 2:代入 β0\boldsymbol{\beta_0}β0? 的表達式到方程(2)

將式(1)β0=yˉ?β1xˉ\boldsymbol{\beta_0 = \bar{y} - \beta_1 \bar{x}}β0?=yˉ??β1?xˉ 代入式(2),右邊變為:
(yˉ?β1xˉ)∑xi+β1∑xi2(\bar{y} - \beta_1 \bar{x}) \sum x_i + \beta_1 \sum x_i^2(yˉ??β1?xˉ)xi?+β1?xi2?

利用 ∑xi=nxˉ\sum x_i = n\bar{x}xi?=nxˉ(因為 xˉ=1n∑xi\bar{x} = \frac{1}{n}\sum x_ixˉ=n1?xi?),展開并整理:
右邊=yˉ?nxˉ?β1xˉ?nxˉ+β1∑xi2=nxˉyˉ+β1(∑xi2?nxˉ2)\begin{align*} \text{右邊} &= \bar{y} \cdot n\bar{x} - \beta_1 \bar{x} \cdot n\bar{x} + \beta_1 \sum x_i^2 \\ &= n\bar{x}\bar{y} + \beta_1 \left( \sum x_i^2 - n\bar{x}^2 \right) \end{align*}右邊?=yˉ??nxˉ?β1?xˉ?nxˉ+β1?xi2?=nxˉyˉ?+β1?(xi2??nxˉ2)?

步驟 3:化簡方程求 β1\boldsymbol{\beta_1}β1?

式(2)左邊為 ∑xiyi\sum x_i y_ixi?yi?,因此:
∑xiyi=nxˉyˉ+β1(∑xi2?nxˉ2)\sum x_i y_i = n\bar{x}\bar{y} + \beta_1 \left( \sum x_i^2 - n\bar{x}^2 \right)xi?yi?=nxˉyˉ?+β1?(xi2??nxˉ2)

將左邊的 nxˉyˉn\bar{x}\bar{y}nxˉyˉ? 移到左邊,得:
∑xiyi?nxˉyˉ=β1(∑xi2?nxˉ2)(3)\sum x_i y_i - n\bar{x}\bar{y} = \beta_1 \left( \sum x_i^2 - n\bar{x}^2 \right) \tag{3}xi?yi??nxˉyˉ?=β1?(xi2??nxˉ2)(3)

步驟 4:轉化為離均差形式

(1)分子:∑xiyi?nxˉyˉ\sum x_i y_i - n\bar{x}\bar{y}xi?yi??nxˉyˉ?

展開 離均差 (xi?xˉ)(yi?yˉ)(x_i - \bar{x})(y_i - \bar{y})(xi??xˉ)(yi??yˉ?)
∑(xi?xˉ)(yi?yˉ)=∑(xiyi?xiyˉ?xˉyi+xˉyˉ)=∑xiyi?yˉ∑xi?xˉ∑yi+nxˉyˉ=∑xiyi?yˉ?nxˉ?xˉ?nyˉ+nxˉyˉ(因∑xi=nxˉ,∑yi=nyˉ)=∑xiyi?nxˉyˉ\begin{align*} \sum (x_i - \bar{x})(y_i - \bar{y}) &= \sum \left( x_i y_i - x_i \bar{y} - \bar{x} y_i + \bar{x}\bar{y} \right) \\ &= \sum x_i y_i - \bar{y} \sum x_i - \bar{x} \sum y_i + n\bar{x}\bar{y} \\ &= \sum x_i y_i - \bar{y} \cdot n\bar{x} - \bar{x} \cdot n\bar{y} + n\bar{x}\bar{y} \quad (\text{因} \sum x_i = n\bar{x}, \sum y_i = n\bar{y}) \\ &= \sum x_i y_i - n\bar{x}\bar{y} \end{align*}(xi??xˉ)(yi??yˉ?)?=(xi?yi??xi?yˉ??xˉyi?+xˉyˉ?)=xi?yi??yˉ?xi??xˉyi?+nxˉyˉ?=xi?yi??yˉ??nxˉ?xˉ?nyˉ?+nxˉyˉ?(xi?=nxˉ,yi?=nyˉ?)=xi?yi??nxˉyˉ??

因此,分子 ∑xiyi?nxˉyˉ=∑(xi?xˉ)(yi?yˉ)\sum x_i y_i - n\bar{x}\bar{y} = \sum (x_i - \bar{x})(y_i - \bar{y})xi?yi??nxˉyˉ?=(xi??xˉ)(yi??yˉ?)

(2)分母:∑xi2?nxˉ2\sum x_i^2 - n\bar{x}^2xi2??nxˉ2

展開離均差平方 (xi?xˉ)2(x_i - \bar{x})^2(xi??xˉ)2
∑(xi?xˉ)2=∑(xi2?2xixˉ+xˉ2)=∑xi2?2xˉ∑xi+nxˉ2=∑xi2?2xˉ?nxˉ+nxˉ2(因∑xi=nxˉ)=∑xi2?nxˉ2\begin{align*} \sum (x_i - \bar{x})^2 &= \sum \left( x_i^2 - 2x_i \bar{x} + \bar{x}^2 \right) \\ &= \sum x_i^2 - 2\bar{x} \sum x_i + n\bar{x}^2 \\ &= \sum x_i^2 - 2\bar{x} \cdot n\bar{x} + n\bar{x}^2 \quad (\text{因} \sum x_i = n\bar{x}) \\ &= \sum x_i^2 - n\bar{x}^2 \end{align*}(xi??xˉ)2?=(xi2??2xi?xˉ+xˉ2)=xi2??2xˉxi?+nxˉ2=xi2??2xˉ?nxˉ+nxˉ2(xi?=nxˉ)=xi2??nxˉ2?

因此,分母 ∑xi2?nxˉ2=∑(xi?xˉ)2\sum x_i^2 - n\bar{x}^2 = \sum (x_i - \bar{x})^2xi2??nxˉ2=(xi??xˉ)2

步驟 5:最終推導

將分子和分母的離均差形式代入式(3),得:
β1=∑(xi?xˉ)(yi?yˉ)∑(xi?xˉ)2\boldsymbol{\beta_1 = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2}}β1?=(xi??xˉ)2(xi??xˉ)(yi??yˉ?)?

核心邏輯總結

  1. 通過最小二乘法得到 兩個正規方程,分別對應截距 β0\beta_0β0? 和斜率 β1\beta_1β1?
  2. 利用 β0\beta_0β0? 與均值的關系(β0=yˉ?β1xˉ\beta_0 = \bar{y} - \beta_1 \bar{x}β0?=yˉ??β1?xˉ),將其代入 β1\beta_1β1? 的正規方程。
  3. 通過 離均差展開 化簡,將代數形式轉化為更直觀的協方差/方差形式(分子是 xxxyyy 的協方差和,分母是 xxx 的方差和)。

這種推導體現了最小二乘法的核心:通過均值和離均差簡化計算,最終得到斜率的直觀表達式。

二、數學案例(簡單線性回歸)

問題:

已知5組數據(( x ) 為廣告投入,( y ) 為銷售額,單位:萬元):
( x: [1, 2, 3, 4, 5] ),( y: [2, 4, 5, 7, 8] ),求回歸方程 y^=β^0+β^1x\hat{y} = \hat{\beta}_0 + \hat{\beta}_1 xy^?=β^?0?+β^?1?x

計算步驟:

公式:
β1=∑(xi?xˉ)(yi?yˉ)∑(xi?xˉ)2\boldsymbol{\beta_1 = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2}}β1?=(xi??xˉ)2(xi??xˉ)(yi??yˉ?)?
β0=yˉ?β1xˉ\beta_0 = \bar{y} - \beta_1 \bar{x}β0?=yˉ??β1?xˉ

  1. 計算均值
    xˉ=1+2+3+4+55=3\bar{x} = \frac{1+2+3+4+5}{5} = 3xˉ=51+2+3+4+5?=3yˉ=2+4+5+7+85=5.2\bar{y} = \frac{2+4+5+7+8}{5} = 5.2yˉ?=52+4+5+7+8?=5.2

  2. 計算分子 ∑(xi?xˉ)(yi?yˉ)\sum (x_i - \bar{x})(y_i - \bar{y})(xi??xˉ)(yi??yˉ?)
    (1?3)(2?5.2)=(?2)(?3.2)=6.4(1-3)(2-5.2) = (-2)(-3.2) = 6.4(1?3)(2?5.2)=(?2)(?3.2)=6.4
    (2?3)(4?5.2)=(?1)(?1.2)=1.2(2-3)(4-5.2) = (-1)(-1.2) = 1.2(2?3)(4?5.2)=(?1)(?1.2)=1.2
    (3?3)(5?5.2)=0×(?0.2)=0(3-3)(5-5.2) = 0 \times (-0.2) = 0(3?3)(5?5.2)=0×(?0.2)=0
    (4?3)(7?5.2)=1×1.8=1.8(4-3)(7-5.2) = 1 \times 1.8 = 1.8(4?3)(7?5.2)=1×1.8=1.8
    (5?3)(8?5.2)=2×2.8=5.6(5-3)(8-5.2) = 2 \times 2.8 = 5.6(5?3)(8?5.2)=2×2.8=5.6
    總和:6.4+1.2+0+1.8+5.6=156.4 + 1.2 + 0 + 1.8 + 5.6 = 156.4+1.2+0+1.8+5.6=15

  3. 計算分母 ∑(xi?xˉ)2\sum (x_i - \bar{x})^2(xi??xˉ)2
    (1?3)2=4(1-3)^2 = 4(1?3)2=4
    (2?3)2=1(2-3)^2 = 1(2?3)2=1
    (3?3)2=0(3-3)^2 = 0(3?3)2=0
    (4?3)2=1(4-3)^2 = 1(4?3)2=1
    (5?3)2=4(5-3)^2 = 4(5?3)2=4
    總和:4+1+0+1+4=104 + 1 + 0 + 1 + 4 = 104+1+0+1+4=10

  4. 估計參數
    斜率:β^1=1510=1.5\hat{\beta}_1 = \frac{15}{10} = 1.5β^?1?=1015?=1.5
    截距:β^0=yˉ?β^1xˉ=5.2?1.5×3=0.7\hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \bar{x} = 5.2 - 1.5 \times 3 = 0.7β^?0?=yˉ??β^?1?xˉ=5.2?1.5×3=0.7

結果:

回歸方程為 y^=0.7+1.5x\hat{y} = 0.7 + 1.5xy^?=0.7+1.5x,即廣告投入每增加1萬元,銷售額平均增加1.5萬元。

三、總結

線性回歸通過最小二乘法估計參數,核心是最小化誤差平方和。簡單線性回歸的參數可通過均值和協方差直接計算。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/94256.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/94256.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/94256.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

主成分分析法 PCA 是什么

主成分分析法 PCA 是什么 主成分分析法(Principal Component Analysis,簡稱PCA)是一種數據降維與特征提取方法,核心思想是通過線性變換將高維數據映射到低維空間,在盡可能保留原始數據“信息量”(即方差)的同時,減少數據維度,消除特征間的相關性。 主成分分析法(PC…

Elasticsearch太重?試試輕量、極速的Meilisearch

在構建現代化的應用時,“搜索”早已不再是錦上添花的功能,而是決定用戶留存體驗的關鍵一環。Meilisearch,作為一款專為速度、易用性與開發者體驗而生的開源搜索引擎,正受到越來越多開發者的青睞。 本文將介紹 Meilisearch 的核心…

車載通信架構 ---車內通信的汽車網絡安全

我是穿拖鞋的漢子,魔都中堅持長期主義的汽車電子工程師。 老規矩,分享一段喜歡的文字,避免自己成為高知識低文化的工程師: 做到欲望極簡,了解自己的真實欲望,不受外在潮流的影響,不盲從,不跟風。把自己的精力全部用在自己。一是去掉多余,凡事找規律,基礎是誠信;二是…

MySQL: with as與with RECURSIVE如何混合使用?

文章目錄一、with用法系列文章二、前言三、MySQL 普通CTE與遞歸CTE混合使用的嚴格規則四、解決方案4.1、方法1:嵌套查詢4.2、方法2:使用臨時表4.3、方法3:分開執行(應用層處理)本文主要探討mysql中with普通cte與遞歸ct…

腕管綜合征 : “鼠標手”| “數字時代工傷”,在我國視頻終端工作者中患病率達12%到15%。“

文章目錄 引言 I 預防“鼠標手” 肌腱的滑動 正中神經的滑動 II “鼠標手”是怎么發生的? 癥狀 “鼠標手”的高發人群 引言 “鼠標手”發展到晚期會對神經造成不可逆的損傷。 早期剛開始有癥狀,比如說輕微的麻木,持續的時間也不長,發作頻率也不高的情況下,我們可以通過像…

#C語言——刷題攻略:牛客編程入門訓練(三):輸出格式化、基本運算符

🌟菜鳥主頁:晨非辰的主頁 👀學習專欄:《C語言刷題合集》 💪學習階段:C語言方向初學者 ?名言欣賞:"代碼行數決定你的下限,算法思維決定你的上限。" 目錄 1. 牛牛的空格分…

【ELasticsearch】集群故障模擬方案(二):磁盤空間滿、重選主節點

《集群故障模擬方案》系列,共包含以下文章: 1?? 集群故障模擬方案(一):節點宕機、節點離線2?? 集群故障模擬方案(二):磁盤空間滿、重選主節點 😊 如果您覺得這篇文章…

React中的Hooks

在React 16.8版本之前,組件主要分為兩種:類組件(Class Components) 和 函數組件(Function Components)。類組件可以使用 state 來管理內部狀態,也能使用生命周期方法(如 componentDi…

【21】C# 窗體應用WinForm ——圖片框PictureBox屬性、方法、實例應用

文章目錄12. 圖片框PictureBox12.2 PictureBox插入、刪除圖片12.2.1 插入方式一:右鍵導入12.2.2 插入方式二:程序路徑讀入12.2.3 刪除圖片:右鍵清除12.3 實例:一鍵實現圖片交換12.4 圖片與窗口尺寸——SizeMode屬性——實例對比1 …

Vue-Router 4.0:新一代前端路由管理

🤍 前端開發工程師、技術日更博主、已過CET6 🍨 阿珊和她的貓_CSDN博客專家、23年度博客之星前端領域TOP1 🕠 牛客高級專題作者、打造專欄《前端面試必備》 、《2024面試高頻手撕題》、《前端求職突破計劃》 🍚 藍橋云課簽約作者、…

vuhub Corrosion2靶場攻略

靶場下載: 下載地址:https://download.vulnhub.com/corrosion/Corrosion2.ova 靶場使用: 我這里是使用Oracle VirtualBox虛擬機打開靶場,使用VMware打開攻擊機kali,要使這兩個機器能互相通信,需要將這兩…

定制開發開源AI智能名片S2B2C商城小程序的特點、應用與發展研究

摘要:本文聚焦定制開發開源AI智能名片S2B2C商城小程序,深入剖析其技術特點、功能優勢。通過分析在實體店與線上營銷、新零售閉環生態構建、智慧場景賦能以及微商品牌規范化運營等方面的應用,探討其發展趨勢。旨在為營銷技術專家中的營銷創客及…

ulimit參數使用詳細總結

目錄 1. 基本介紹 1.1 核心功能 1.2 作用范圍 1.3 限制類型 2. 基本語法 3. 常用選項? 3.1 常見options 3.2 查看當前限制 4. 核心概念 4.1 軟限制(Soft Limit) 4.2 硬限制(Hard Limit) 5. 修改限制 5.1 臨時修改 …

基于ASIC架構的AI芯片:人工智能時代的算力引擎

基于ASIC架構的AI芯片:人工智能時代的算力引擎在深度學習模型參數量呈指數級增長、訓練與推理需求爆炸式發展的今天,通用處理器(CPU、GPU)在能效比和計算密度上的局限日益凸顯。基于ASIC(Application-Specific Integra…

Linux信號機制:從硬件中斷到用戶態處理

當你在終端按下 CtrlC 時,一個簡單的組合鍵觸發了操作系統最精妙的異步通信機制。這種跨越硬件與軟件的協作,正是Linux信號系統的精髓所在。本文將帶你深入探索信號處理的全過程,從CPU中斷到用戶態函數調用,揭示Linux最強大的進程…

C語言基礎:動態申請練習題

1. 動態申請一個具有10個float類型元素的內存空間&#xff0c;從一個已有的數組中拷貝數據&#xff0c;并找出第一次出現 12.35 的下標位置&#xff0c;并輸出。#include <stdio.h> #include <stdlib.h> #include <string.h>int main() {// 動態申請10個flo…

MATLAB 實現 SRCNN 圖像超分辨率重建

MATLAB 實現 SRCNN 圖像超分辨率重建 MATLAB代碼實現&#xff0c;用于基于三層卷積神經網絡的圖像超分辨率重建。代碼參考了多個來源&#xff0c;結合了SRCNN的典型實現步驟。 1. MATLAB代碼實現 % 超分辨率卷積神經網絡(SRCNN)的測試代碼 % 參考文獻&#xff1a;Chao Dong, Ch…

知識蒸餾 - 基于KL散度的知識蒸餾 HelloWorld 示例

知識蒸餾 - 基于KL散度的知識蒸餾 HelloWorld 示例 flyfish 知識蒸餾 - 蒸的什么 知識蒸餾 - 通過引入溫度參數T調整 Softmax 的輸出 知識蒸餾 - 對數函數的單調性 知識蒸餾 - 信息量的公式為什么是對數 知識蒸餾 - 根據真實事件的真實概率分布對其進行編碼 知識蒸餾 - …

從結構到交互:HTML5進階開發全解析——語義化標簽、Canvas繪圖與表單設計實戰

一、語義化標簽進階&#xff1a;重構頁面結構的「邏輯語言」 在 HTML5 的舞臺上&#xff0c;語義化標簽是熠熠生輝的主角&#xff0c;它們為網頁賦予了清晰的邏輯結構&#xff0c;使其更易被搜索引擎理解和被開發者維護。其中&#xff0c;<section>與<article>標簽…

標準七層網絡協議和TCP/IP四層協議的區別

分別是什么? OSI七層協議是國際標準組織制定的標準協議。其中七層分別是物理層,數據鏈路層,網絡層,傳輸層,會話層,表示層,應用層。 TCP/IP協議是美國軍方在后期網絡技術的發展中提出來的符合目前現狀的協議。其中四層分別是網絡接口層對應七層中的物理層和數據鏈路層,…