最優估計準則與方法(5)加權最小二乘估計(WLS)_學習筆記

前言

最優估計理論中研究的最小二乘估計(LS)線性最小二乘估計(LLS),包括古典最小二乘估計(CLS)[1]、加權最小二乘估計(WLS)遞推最小二乘估計(RLS)。本文將詳細介紹加權最小二乘估計(WLS)

線性參數估計問題描述

這里重復文章[1]的相關描述。設XXXnnn維未知參數向量,ZZZkkk維觀測向量,表示經過kkk組實驗觀測得到的觀測值向量,其中元素ziz_{i}zi?表示第i次觀測實驗得到的觀測值,顯然其是1維觀測標量,VVVkkk維觀測噪聲向量,其中元素viv_{i}vi?表示第i次觀測實驗的觀測噪聲,顯然其是1維噪聲標量。一般情況下k>nk > nk>n且希望kkknnn大得多。單次觀測值為多維的情況將在其他篇幅討論。觀測實驗依據的自變量為θ\thetaθ,則將觀測量ziz_{i}zi?表示為關于θ\thetaθ的未知函數f(θ,X)f(\theta,X)f(θ,X)
zi=f(θ,X)=∑j=1n[xjhi,j(θ)]+vi=x1hi,1(θ)+x2hi,2(θ)+?+xnhi,n(θ)+vi\begin{align*} z_{i} = f(\theta,X) = \sum_{j=1}^{n} \left [ x_{j}h_{i,j}(\theta) \right ]+ v_{i} = x_{1}h_{i,1}(\theta)+ x_{2}h_{i,2}(\theta) + \cdots + x_{n}h_{i,n}(\theta) + v_{i} \tag{1} \\ \end{align*} zi?=f(θ,X)=j=1n?[xj?hi,j?(θ)]+vi?=x1?hi,1?(θ)+x2?hi,2?(θ)+?+xn?hi,n?(θ)+vi??(1)?
其中
X=[x1x2?xn]Z=[z1z2?zk]V=[v1v2?vk]\begin{align*} X = \begin{bmatrix} x_{1} \\ x_{2} \\ \vdots \\ x_{n} \end{bmatrix} Z = \begin{bmatrix} z_{1} \\ z_{2} \\ \vdots \\ z_{k} \end{bmatrix} V = \begin{bmatrix} v_{1} \\ v_{2} \\ \vdots \\ v_{k} \end{bmatrix} \end{align*} X=?x1?x2??xn???Z=?z1?z2??zk???V=?v1?v2??vk????
式(1)中hi,j(θ)h_{i,j}(\theta)hi,j?(θ)表示第iii次觀測第jjj個基函數,常用為多項式、三角函數或自然指數函數形式:
hi,j(θ)=θj?1hi,j(θ)=sin(jθ)hi,j(θ)=exp(λjθ)\begin{align*} h_{i,j}(\theta) &= \theta ^{j-1} \\ h_{i,j}(\theta) &= sin(j\theta) \\ h_{i,j}(\theta) &= exp(\lambda_{j} \theta) \\ \end{align*} hi,j?(θ)hi,j?(θ)hi,j?(θ)?=θj?1=sin(jθ)=exp(λj?θ)?
其中,λj\lambda_{j}λj?為自然數指數參數。
當觀測實驗進行,上述基函數均可根據θ\thetaθ求得。令hi=[hi,1(θ)hi,2(θ)?hi,n(θ)]h_{i} = \begin{bmatrix} h_{i,1}(\theta) & h_{i,2}(\theta) & \cdots & h_{i,n}(\theta) \\ \end{bmatrix}hi?=[hi,1?(θ)?hi,2?(θ)???hi,n?(θ)?]且為已知,其為nnn維常向量,將式(1)改寫為:
Z=HX+V\begin{align*} Z= HX+ V \tag{2} \\ \end{align*} Z=HX+V?(2)?
其中,HHH為參數向量XXX到觀測向量ZZZk×nk \times nk×n維轉移矩陣:
H=[h1h2?hk]=[h1,1(θ)h1,2(θ)?h1,n(θ)h2,1(θ)h2,2(θ)?h2,n(θ)????hk,1(θ)hk,2(θ)?hk,n(θ)]\begin{align*} H = \begin{bmatrix} h_{1} \\ h_{2} \\ \vdots \\ h_{k} \end{bmatrix} = \begin{bmatrix} h_{1,1}(\theta) & h_{1,2}(\theta) & \cdots & h_{1,n}(\theta) \\ h_{2,1}(\theta) & h_{2,2}(\theta) & \cdots & h_{2,n}(\theta) \\ \vdots & \vdots & \ddots & \vdots\\ h_{k,1}(\theta) & h_{k,2}(\theta) & \cdots & h_{k,n}(\theta) \end{bmatrix} \\ \end{align*} H=?h1?h2??hk???=?h1,1?(θ)h2,1?(θ)?hk,1?(θ)?h1,2?(θ)h2,2?(θ)?hk,2?(θ)??????h1,n?(θ)h2,n?(θ)?hk,n?(θ)???
顯然,觀測向量ZZZ與被估參數向量XXX存在線性關系,依據最優準則求對XXX的估計值X^\hat{X}X^是一個線性參數估計問題,自然對應線性最小二乘估計(LLS)

這里討論下超定方程組的矛盾:當k=nk = nk=n時,線性方程組有唯一精確解,但當k>nk > nk>n,線性方程數大于未知被估參數向量的維度,線性方程組變成線性超定方程組,其解不唯一。最小二乘法的思想是需求統計意義上的近似解,使線性超定方程組中各方程能得到近似相等。

加權最小二乘估計(Weighted Least Squares Estimation, WLSE)

最小二乘估計(LS) 假設每次觀測量對于估計結果的影響程度相同,但實際上觀測數據的權重與該次觀測的殘差平方呈反比更為合理,因此引出加權最小二乘估計(WLS)
加權最小二乘估計(WLS) 估計準則為:加權殘差平方和最小。
根據式(3)代價函數改寫如下:
J=E^TWE^=(Z?HX^)TW(Z?HX^)=∑i=1kwie^i2=∑i=1kwi(zi?hiX^)2=min\begin{align*} J = \hat{E}^{T}W\hat{E} &= (Z-H\hat{X})^{T}W(Z-H\hat{X}) = \sum_{i=1}^{k} w_{i}\hat{e}_{i}^{2} = \sum_{i=1}^{k}w_{i}(z_{i}-h_{i}\hat{X})^{2}=min \tag{3} \\ \end{align*} J=E^TWE^?=(Z?HX^)TW(Z?HX^)=i=1k?wi?e^i2?=i=1k?wi?(zi??hi?X^)2=min?(3)?
其中,e^i\hat{e}_{i}e^i?為第iii次觀測的殘差(Residual Error)E^\hat{E}E^kkk維殘差向量有:
e^i=zi?hiX^E^=Z?HX^=[e^1e^2?e^k]\begin{align*} \hat{e}_{i} &= z_{i}-h_{i}\hat{X} \\ \hat{E} &= Z-H\hat{X} = \begin{bmatrix} \hat{e}_{1} \\ \hat{e}_{2} \\ \vdots \\ \hat{e}_{k} \end{bmatrix} \\ \end{align*} e^i?E^?=zi??hi?X^=Z?HX^=?e^1?e^2??e^k????
WWW為可根據實際情況適當選取的k×kk\times kk×k階對稱正定加權矩陣,但當W=IW=IW=I時,加權最小二乘估計退化為最小二乘估計。
W=[w10?00w2?0????00?wk]\begin{align*} W &= \begin{bmatrix} w_{1} & 0& \cdots& 0\\ 0& w_{2} & \cdots& 0 \\ \vdots& \vdots& \ddots & \vdots\\ 0& 0& \cdots& w_{k} \end{bmatrix} \\ \end{align*} W?=?w1?0?0?0w2??0??????00?wk????
加權最小二乘估計(WLS)方法
根據式(3)進行對如下代價函數進行最小化:
J=(Z?HX^)TW(Z?HX^)\begin{align*} J &= (Z-H\hat{X})^{T}W(Z-H\hat{X}) \tag{4} \\ \end{align*} J?=(Z?HX^)TW(Z?HX^)?(4)?
JJJX^\hat{X}X^求偏導,并令其為0,有:
?J?X^=0?J?(Z?HX^)?(Z?HX^)?X^=0?2HTW(Z?HX^)=0X^=(HTWH)?1HTWZ\begin{align*} \frac{\partial J}{\partial \hat{X}} &= 0 \\ \frac{\partial J}{\partial (Z-H\hat{X})}\frac{\partial (Z-H\hat{X})}{\partial \hat{X}} &=0 \\ -2H^{T}W(Z-H\hat{X}) &= 0 \\ \hat{X} &= (H^{T}WH)^{-1}H^{T}WZ \tag{5} \end{align*} ?X^?J??(Z?HX^)?J??X^?(Z?HX^)??2HTW(Z?HX^)X^?=0=0=0=(HTWH)?1HTWZ?(5)?
再由?2J?X^2=2HTWH>0\frac{\partial^{2} J}{\partial \hat{X}^{2}}=2H^{T}WH > 0?X^2?2J?=2HTWH>0,為X^\hat{X}X^為被估參數向量XXX的加權最小二乘估計,顯然其是觀測向量ZZZ的線性估計。
Jmin=(Z?HX^)TW(Z?HX^)=ZT(I?H(HTWH)?1HTW)T(I?H(HTWH)?1HTW)Z\begin{align*} J_{min} &= (Z-H\hat{X})^{T}W(Z-H\hat{X}) \\ &= Z^{T}(I-H(H^{T}WH)^{-1}H^{T}W)^{T}(I-H(H^{T}WH)^{-1}H^{T}W)Z \tag{6} \\ \end{align*} Jmin??=(Z?HX^)TW(Z?HX^)=ZT(I?H(HTWH)?1HTW)T(I?H(HTWH)?1HTW)Z?(6)?
加權最小二乘估計(WLS)無偏性
令估計誤差為X~\tilde{X}X~,定義被估參數向量XXX與估計值向量X^\hat{X}X^的偏差,有:
X~=X?X^=(HTWH)?1HTWHX?(HTWH)?1HTWZ=(HTWH)?1HTW(HX?Z)=?(HTWH)?1HTWV\begin{align*} \tilde{X} &= X - \hat{X} \tag{7} \\ &= (H^{T}WH)^{-1}H^{T}WHX - (H^{T}WH)^{-1}H^{T}WZ \\ &= (H^{T}WH)^{-1}H^{T}W(HX - Z) \\ &= -(H^{T}WH)^{-1}H^{T}WV \tag{8} \\ \end{align*} X~?=X?X^=(HTWH)?1HTWHX?(HTWH)?1HTWZ=(HTWH)?1HTW(HX?Z)=?(HTWH)?1HTWV?(7)(8)?
估計誤差X~\tilde{X}X~的數學期望為:
E[X~]=E[X?X^]=E[?(HTWH)?1HTWV]=?(HTWH)?1HTWE[V]\begin{align*} E[\tilde{X}] &= E[X - \hat{X}] \tag{9} \\ &= E[-(H^{T}WH)^{-1}H^{T}WV] \\ &= -(H^{T}WH)^{-1}H^{T}WE[V] \tag{10} \\ \end{align*} E[X~]?=E[X?X^]=E[?(HTWH)?1HTWV]=?(HTWH)?1HTWE[V]?(9)(10)?
由式(10)可知,如果觀測噪聲VVV為白噪聲,即E[V]=0E[V]=0E[V]=0,則加權最小二乘估計X^\hat{X}X^為無偏線性估計。在該無偏估計情況下,估計誤差X^\hat{X}X^的方差矩陣與估計量X^\hat{X}X^的均方誤差矩陣相等,推導見[1],即:
Var(X~)=MSE(X^)=E[X~X~T]=E[(?(HTWH)?1HTWV)(?(HTWH)?1HTWV)T]=(HTWH)?1HTWE[VVT]WH(HTWH)?1=(HTWH)?1HTWRWH(HTWH)?1\begin{align*} Var(\tilde{X}) &= MSE(\hat{X}) \tag{11} \\ &= E[\tilde{X}\tilde{X}^{T}] \\ &= E[(-(H^{T}WH)^{-1}H^{T}WV)(-(H^{T}WH)^{-1}H^{T}WV)^{T}] \\ &= (H^{T}WH)^{-1}H^{T}WE[VV^{T}]WH(H^{T}WH)^{-1} \\ &= (H^{T}WH)^{-1}H^{T}WRWH(H^{T}WH)^{-1} \tag{12} \\ \end{align*} Var(X~)?=MSE(X^)=E[X~X~T]=E[(?(HTWH)?1HTWV)(?(HTWH)?1HTWV)T]=(HTWH)?1HTWE[VVT]WH(HTWH)?1=(HTWH)?1HTWRWH(HTWH)?1?(11)(12)?
其中,RRR為觀測噪聲向量VVV的方差矩陣:
R=[σ120?00σ22?0????00?σk2]\begin{align*} R &= \begin{bmatrix} \sigma_{1}^{2} & 0& \cdots& 0\\ 0& \sigma_{2}^{2} & \cdots& 0 \\ \vdots& \vdots& \ddots & \vdots\\ 0& 0& \cdots& \sigma_{k}^{2} \end{bmatrix} \\ \end{align*} R?=?σ12?0?0?0σ22??0??????00?σk2????
由式(8)和(14)可知,即使在無偏估計前提下,二者并不一定相等。因此,加權最小二乘無偏估計只能保證加權殘差平方和最小,但不能保證估計誤差方差最小。

最優加權最小二乘估計
由于WWW為可設定的對稱正定加權矩陣,在無偏估計前提下,WWW取某個值可使估計誤差方差矩陣式(12)最小,令R=CTCR=C^{T}CR=CTC,則:
Var(X~)=(HTWH)?1HTWRWH(HTWH)?1=(CWH(HTWH)?1)TCWH(HTWH)?1\begin{align*} Var(\tilde{X}) &= (H^{T}WH)^{-1}H^{T}WRWH(H^{T}WH)^{-1} \\ &= (CWH(H^{T}WH)^{-1})^{T} CWH(H^{T}WH)^{-1} \tag{13} \\ \end{align*} Var(X~)?=(HTWH)?1HTWRWH(HTWH)?1=(CWH(HTWH)?1)TCWH(HTWH)?1?(13)?
A=CWH(HTWH)?1A=CWH(H^{T}WH)^{-1}A=CWH(HTWH)?1B=C?1HB=C^{-1}HB=C?1H,根據施瓦次(Schwarz)不等式
Var(X~)=ATA≥(ATB)T(BTB)?1(BTA)=(HTR?1H)?1\begin{align*} Var(\tilde{X}) &= A^{T} A \geq (A^{T}B)^{T}(B^{T}B)^{-1} (B^{T}A) = (H^{T}R^{-1}H)^{-1} \tag{14} \\ \end{align*} Var(X~)?=ATA(ATB)T(BTB)?1(BTA)=(HTR?1H)?1?(14)?
若式(14)取最小值,W=R?1W=R^{-1}W=R?1,此時有
X^=(HTR?1H)?1HTR?1ZVar(X~)=(HTR?1H)?1\begin{align*} \hat{X} &= (H^{T}R^{-1}H)^{-1}H^{T}R^{-1}Z \tag{15} \\ Var(\tilde{X}) &= (H^{T}R^{-1}H)^{-1} \tag{16} \\ \end{align*} X^Var(X~)?=(HTR?1H)?1HTR?1Z=(HTR?1H)?1?(15)(16)?
當噪聲向量VVV的統計均值為E[V]=0E[V]=0E[V]=0,且加權殘差平方和中的最優加權矩陣W=R?1W=R^{-1}W=R?1時,最優加權最小二乘估計是缺少初值條件下的線性無偏最小方差估計,又稱為馬爾可夫(Markov)估計

綜上,根據加權最小二乘估計原理,做如下總結:

  1. 求加權最小二乘估計量X^\hat{X}X^不需要任何觀測噪聲向量VVV的任何統計信息;
  2. 加權最小二乘估計的無偏性取決于噪聲向量VVV的數學期望,如VVV為白噪聲,即為無偏估計;
  3. 無論是否具備無偏性,最小二乘估計只能保證加權殘差平方和最小而不是估計誤差方差最小;
  4. 當噪聲向量VVV的均值為0,且已知其方差矩陣RRR,最優加權矩陣W=R?1W=R^{-1}W=R?1,此時為最優加權最小二乘估計,即馬爾可夫估計。

參考文獻

[1] 最優估計準則與方法(4)最小二乘估計(LS)_學習筆記
https://blog.csdn.net/jimmychao1982/article/details/149656745
[2] 《最優估計理論》,周鳳歧,2009,高等教育出版社。
[3] 《最優估計理論》,劉勝,張紅梅著,2011,科學出版社。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/916292.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/916292.shtml
英文地址,請注明出處:http://en.pswp.cn/news/916292.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Linux——線程互斥

文章目錄一、有關概念原子性錯誤認知澄清加鎖二、鎖的相關函數全局鎖局部鎖初始化銷毀加鎖解鎖三、鎖相關如何看待鎖一個線程在執行臨界區的代碼時,可以被切換嗎?鎖是本身也是臨界資源,它如何做到保護自己?(鎖的實現&a…

扣子(Coze)宣布開源兩大核心項目——Coze Studio(扣子開發平臺)和Coze Loop(扣子羅盤),附安裝步驟

2025年7月26日,字節跳動旗下AI開發平臺“扣子(Coze)”宣布開源兩大核心項目——Coze Studio(扣子開發平臺)和Coze Loop(扣子羅盤),采用Apache 2.0協議,支持免費商用及本地化部署。 開源內容 Coze Studio:提供可視化AI智能體開發工具,支持零代碼/低代碼拖拽式工作流編…

InfluxDB Flux 查詢協議實戰應用(二)

四、實戰案例解析4.1 服務器性能監控數據查詢在服務器性能監控場景中,InfluxDB 和 Flux 查詢協議能夠發揮重要作用,幫助運維人員實時了解服務器的運行狀態,及時發現性能問題。假設我們的服務器性能監控數據存儲在名為server-monitoring的存儲…

二層隧道協議(PPP、PPTP、L2TP)

PPP —— 點對點鏈路上的“鏈路層會話層”協議,解決撥號認證、IP 分配和多協議封裝。PPTP —— 在 IP 網絡里開一條“PPP-over-GRE”隧道,把 PPP 封裝進公共網絡,速度快但已不安全。L2TP —— 在 IP/UDP 里再開一條“PPP-over-UDP”隧道&…

openmv特征點檢測

AGAST 角點檢測器和 FAST 角點檢測器: 兩者都是計算機視覺中快速檢測圖像角點的算法,核心目的是高效找到圖像中 "有辨識度的點",但細節略有不同: (1)FAST 角點檢測器 ? 特點:速度極快…

基于深度學習的CT圖像3D重建技術研究

基于深度學習的CT圖像3D重建技術研究 摘要 本文詳細探討了使用深度學習技術進行CT(計算機斷層掃描)圖像3D重建的全過程。我們從CT成像基本原理出發,系統介紹了數據預處理、深度學習模型構建、訓練優化以及三維可視化等關鍵技術環節。研究采用了先進的深度學習架構如3D U-Net…

JVM相關面試八股

什么是雙親委派模型? 如果一個類加載器在接到加載類的請求時,它首先不會自己嘗試去加載這個類,而是把這個請求任務委托給父類加載器去完成,依次遞歸,如果父類加載器可以完成類加載任務,就返回成功&#xff…

Javaweb————HTTP消息體拆分講解

??????一.HTTP請求消息結構 (1)請求行 💙 請求方法 💙URL地址 💙協議名 (2)請求頭 報文頭包含若千個屬性格式為“屬性名:屬性值”, 服務端據此獲取客戶端的基本信息 (3&…

GitHub的免費賬戶的存儲空間有多少?

GitHub的免費賬戶在存儲空間方面的具體限制如下: 一、普通倉庫(非LFS)存儲限制 公共倉庫 總存儲:無明確總容量限制,但建議單個倉庫不超過1GB以確保性能。若倉庫過大(如超過5GB),可能會收到GitHub的優化提示郵件。 文件大小:單個文件最大100MB,超過100MB的文件會被直…

Java學習|黑馬筆記|Day23】網絡編程、反射、動態代理

【DAY23】 文章目錄【DAY23】一.網絡編程1)三要素1.1)IPInetAddress類的使用1.2)端口號1.3)協議2.1)UDP協議發送數據2.2)UDP協議接收數據2.3)UDP的三種通信方式3.1)TCP協議的發送和接…

【Linux】從普通進程到守護進程:系統服務的誕生之路

當你在深夜關閉SSH終端,為何Web服務器仍在默默響應請求?這背后是守護進程的魔法在守護著系統服務的不滅之火。一、守護進程的六大核心特征守護進程(Daemon)是Linux系統的無名英雄,它們舍棄了普通進程的"世俗享受&…

k8s常用基礎命令總結

----------------------k8s常用基礎命令--------------------------------- 獲取 Pod 信息 # 1.獲取k8s的命名空間 kubectl get namespaces ?1)獲取 Pod 列表及簡要信息: kubectl get pods 2)以 YAML 格式獲取 Pod 詳細信息: kubectl get pod -o yaml 3)?獲取特定命名空間中…

Java高級之基于Java Attach與Byte-Buddy實現SQL語句增強

目錄 一 Agent 模塊 1 HookAgent.java 2 FormatAdvice.java 3 配置文件 二 Attacher 模塊 1 AttachMain.java 三 測試模塊 1 DruidTest.java 四 驗證步驟 五 原理解析 筆者目標寫一款數據分析中間件,用來增強當前主流開源項目,前幾天寫了一票用…

2025第五屆生物發酵營養源高峰論壇

一、會議時間會議時間:2025年8月8日二、會議地點上海新國際博覽中心–W4館現場2號會議室三、組織單位主辦單位:中國生物發酵產業協會承辦單位:浙江工業大學樂斯福集團Procelys 樂斯福發酵營養元參會福利,助力高效交流為提升參會體驗,組委會特別推出多項福…

Kubernetes 配置管理

這里寫目錄標題什么是 ConfigMap創建 ConfigMap基于目錄創建 ConfigMap創建 conf 目錄,里面放置兩個文件基于目錄下的所有文件創建 ConfigMap查看當前創建的 ConfigMap基于文件創建 ConfigMap創建測試文件 game-cfg基于單個文件創建 ConfigMap查看當前創建的 Config…

ESP32+MicroPython:用Python玩轉物聯網開發

什么是ESP32? ESP32作為當下最熱門的物聯網開發板,常被比作"嵌入式世界的瑞士軍刀"。但很多初學者會混淆芯片、模組和開發板的概念,其實它們的關系很簡單: 芯片(Soc):核心處理器,如ESP32-D0WD模…

opencv學習(圖像金字塔)

1.什么是圖像金字塔圖像金字塔是一種多尺度圖像表示方法,通過對原始圖像進行下采樣(縮小)和上采樣(放大),生成一系列不同分辨率的圖像集合,形似 “金字塔”(底部是高分辨率原始圖像&…

從 C# 到 Python:項目實戰第五天的飛躍

在前面三天的學習中,我們已經掌握了 Python 的基礎語法、數據結構以及一些核心庫的使用。今天,我們將通過三個實戰項目,深入對比 C# 和 Python 在命令行工具開發、Web 應用開發以及數據處理方面的差異,感受 Python 在實際項目中的…

rabbitmq 03

一、mq的作用和使用場景 MQ的基本作用 MQ(Message Queue,消息隊列)是一種應用程序對應用程序的通信方法,主要作用包括: 異步處理:解耦生產者和消費者,允許生產者發送消息后立即返回&#xff0…

Ubuntu 24.04 顯示中文+使用中文鍵盤

ubuntu 24.04 中文顯示中文鍵盤Ubuntu中文輸入重啟iBus服務Ubuntu中文輸入 安裝的Ubuntu24.04,一般默認是英文的,要使用中文的話,可以通過命令行設置,也可以使用‘設置’,在圖形化界面中操作。 下面是在‘設置’的圖形…