【初識掃盲】逆概率加權

我們正在處理一個存在缺失數據的回歸模型,并且希望采用一種非參數的逆概率加權方法來調整估計,以應對這種缺失數據的情況。

首先,我們需要明確問題的背景。我們有樣本 { ( Y i , X i , r i ) : i = 1 , … , n } \left\{\left(Y_i, \boldsymbol{X}_i, r_i\right): i=1, \ldots, n\right\} {(Yi?,Xi?,ri?):i=1,,n},其中 Y i Y_i Yi? 是因變量, X i \boldsymbol{X}_i Xi? 是自變量,而 r i r_i ri? 是一個指示變量:如果 Y i Y_i Yi? 被觀測到,則 r i = 1 r_i = 1 ri?=1,否則 r i = 0 r_i = 0 ri?=0。缺失機制是隨機的,即 r i r_i ri? 以概率 π i = π ( X i ) \pi_i = \pi(\boldsymbol{X}_i) πi?=π(Xi?) 服從伯努利分布,且與 X i \boldsymbol{X}_i Xi? 獨立。

關鍵在于,如果我們只使用完全數據(即 r i = 1 r_i = 1 ri?=1 的數據),估計結果可能會有偏差,因為缺失數據并不是完全隨機的。為了糾正這一點,我們采用逆概率加權法,通過加權來平衡觀測數據,以反映整個數據集的情況。

目標函數被修改為:

β ^ h = arg ? min ? β ∈ R p ∑ i = 1 n r i π ( X i ) M \hat{\boldsymbol{\beta}}_h = \arg \min_{\boldsymbol{\beta} \in \mathbb{R}^p} \sum_{i=1}^n \frac{r_i}{\pi\left(\boldsymbol{X}_i\right)} M β^?h?=argβRpmin?i=1n?π(Xi?)ri??M

讓我們逐步解析這個目標函數。

  1. 逆概率加權:項 r i π i \frac{r_i}{\pi_i} πi?ri?? 是逆概率加權的關鍵。它通過除以觀測概率 π i \pi_i πi? 來加權每個觀測數據點。這樣做的目的是,那些更有可能被觀測到的數據點會被賦予更高的權重,從而在估計過程中得到更多的關注。這有助于糾正由于缺失數據引入的偏差。

  2. 函數 M M M:一個目標函數

  3. 目標函數:整個目標函數是在所有樣本上最小化加權和。即使某些 Y i Y_i Yi? 缺失,我們也會對所有樣本進行求和,但只有當 r i = 1 r_i = 1 ri?=1 時,即 Y i Y_i Yi? 被觀測到時,才會對求和有貢獻。

  4. 期望條件:提到的期望條件 E { r i π i ? 1 ∣ X i } = 0 E\left\{\left.\frac{r_i}{\pi_i} - 1 \right| \boldsymbol{X}_i\right\} = 0 E{πi?ri???1 ?Xi?}=0 表明,逆概率加權調整在給定 X i \boldsymbol{X}_i Xi? 的情況下,平均而言是無偏的。這是因為:

E { r i π i ∣ X i } = E ( r i ∣ X i ) π i = π i π i = 1 E\left\{\frac{r_i}{\pi_i} \mid \boldsymbol{X}_i\right\} = \frac{E(r_i \mid \boldsymbol{X}_i)}{\pi_i} = \frac{\pi_i}{\pi_i} = 1 E{πi?ri??Xi?}=πi?E(ri?Xi?)?=πi?πi??=1

因此, E { r i π i ? 1 ∣ X i } = 0 E\left\{\frac{r_i}{\pi_i} - 1 \mid \boldsymbol{X}_i\right\} = 0 E{πi?ri???1Xi?}=0,這意味著加權項在給定 X i \boldsymbol{X}_i Xi? 的情況下,平均而言是中性的,從而有助于無偏估計。

這描述了如何通過逆概率加權法調整回歸的目標函數,以處理缺失數據。通過為每個觀測數據點分配一個與其觀測概率成反比的權重,我們確保估計結果不會因數據缺失機制而產生偏差。

這種方法特別有用,因為它允許我們在不完全排除缺失數據的情況下,有效地利用所有可用數據,從而提高估計的效率和可靠性。

該目標函數通過逆概率加權法調整回歸,以處理缺失數據,確保估計結果無偏且高效。 \boxed{ \text{該目標函數通過逆概率加權法調整回歸,以處理缺失數據,確保估計結果無偏且高效。} } 該目標函數通過逆概率加權法調整回歸,以處理缺失數據,確保估計結果無偏且高效。?

這里提到的隨機缺失是什么意思?詳細解釋一下這里的逆概率加權是什么意思,為什么期望是那樣的?

我們來詳細理解一下“隨機缺失”和“逆概率加權”這兩個概念,以及為什么在給定 X i \boldsymbol{X}_i Xi?的情況下,期望 E { r i π i ? 1 ∣ X i } = 0 E\left\{\left.\frac{r_i}{\pi_i} - 1 \right| \boldsymbol{X}_i\right\} = 0 E{πi?ri???1 ?Xi?}=0

首先,隨機缺失(Missing at Random, MAR) 是指數據的缺失機制與未觀測到的數據無關,但可能與已觀測到的數據相關。換句話說,給定已觀測到的變量 X i \boldsymbol{X}_i Xi?,數據是否缺失僅取決于 X i \boldsymbol{X}_i Xi?,而不取決于未觀測到的 Y i Y_i Yi?。這一假設非常重要,因為它允許我們使用已觀測到的信息來調整缺失數據的影響,從而減少估計偏差。

接下來,逆概率加權(Inverse Probability Weighting, IPW) 是一種處理缺失數據的方法,通過為每個觀測到的數據點分配一個權重,這個權重是其被觀測到的概率的倒數。具體來說,如果一個數據點被觀測到的概率是 π i \pi_i πi?,那么它的權重就是 1 π i \frac{1}{\pi_i} πi?1?。這樣做的目的是使每個數據點在分析中的權重與其被觀測到的概率成反比,從而平衡觀測數據,使其更具代表性。

現在,我們來探討為什么在給定 X i \boldsymbol{X}_i Xi?的情況下,期望 E { r i π i ? 1 ∣ X i } = 0 E\left\{\left.\frac{r_i}{\pi_i} - 1 \right| \boldsymbol{X}_i\right\} = 0 E{πi?ri???1 ?Xi?}=0。我們逐步分析如下:

E { r i π i ? 1 ∣ X i } = E { r i π i ∣ X i } ? E { 1 ∣ X i } E\left\{\left.\frac{r_i}{\pi_i} - 1 \right| \boldsymbol{X}_i\right\} = E\left\{\left.\frac{r_i}{\pi_i} \right| \boldsymbol{X}_i\right\} - E\left\{1 \mid \boldsymbol{X}_i\right\} E{πi?ri???1 ?Xi?}=E{πi?ri?? ?Xi?}?E{1Xi?}

由于 E { 1 ∣ X i } = 1 E\left\{1 \mid \boldsymbol{X}_i\right\} = 1 E{1Xi?}=1,我們只需計算 E { r i π i ∣ X i } E\left\{\left.\frac{r_i}{\pi_i} \right| \boldsymbol{X}_i\right\} E{πi?ri?? ?Xi?}

根據隨機缺失假設, r i r_i ri?在給定 X i \boldsymbol{X}_i Xi?的條件下服從伯努利分布,即 r i ∣ X i ~ B ( π i ) r_i \mid \boldsymbol{X}_i \sim \text{B}(\pi_i) ri?Xi?B(πi?)。因此,

E { r i ∣ X i } = π i E\left\{\left. r_i \right| \boldsymbol{X}_i \right\} = \pi_i E{ri?Xi?}=πi?

于是,

E { r i π i ∣ X i } = E { r i ∣ X i } π i = π i π i = 1 E\left\{\left.\frac{r_i}{\pi_i} \right| \boldsymbol{X}_i\right\} = \frac{E\left\{\left. r_i \right| \boldsymbol{X}_i \right\}}{\pi_i} = \frac{\pi_i}{\pi_i} = 1 E{πi?ri?? ?Xi?}=πi?E{ri?Xi?}?=πi?πi??=1

因此,

E { r i π i ? 1 ∣ X i } = 1 ? 1 = 0 E\left\{\left.\frac{r_i}{\pi_i} - 1 \right| \boldsymbol{X}_i\right\} = 1 - 1 = 0 E{πi?ri???1 ?Xi?}=1?1=0

這表明,逆概率加權調整在給定 X i \boldsymbol{X}_i Xi?的條件下,平均而言是無偏的。通過這種方式,我們能夠有效地處理缺失數據,減少估計偏差,提高分析的準確性。

希望這些解釋能夠幫助你更好地理解這些概念及其背后的數學原理。

假設 r i r_i ri? 服從參數為 π i \pi_i πi? 的伯努利分布:

E { r i ∣ X i } = π i E\left\{\left. r_i \right| \boldsymbol{X}_i \right\} = \pi_i E{ri?Xi?}=πi?

因此,

E { r i π i ∣ X i } = 1 π i E { r i ∣ X i } = π i π i = 1 E\left\{\left. \frac{r_i}{\pi_i} \right| \boldsymbol{X}_i \right\} = \frac{1}{\pi_i} E\left\{\left. r_i \right| \boldsymbol{X}_i \right\} = \frac{\pi_i}{\pi_i} = 1 E{πi?ri?? ?Xi?}=πi?1?E{ri?Xi?}=πi?πi??=1

由此可得,

E { r i π i ? 1 ∣ X i } = 1 ? 1 = 0 E\left\{\left. \frac{r_i}{\pi_i} - 1 \right| \boldsymbol{X}_i \right\} = 1 - 1 = 0 E{πi?ri???1 ?Xi?}=1?1=0

這表明,逆概率加權調整項 r i π i \frac{r_i}{\pi_i} πi?ri?? 在給定 X i \boldsymbol{X}_i Xi? 的條件下,其期望值為 1,因此其中心化版本 r i π i ? 1 \frac{r_i}{\pi_i} - 1 πi?ri???1 的期望值為零。這意味著,平均而言,逆概率加權調整不會引入偏差,從而確保估計量在給定 X i \boldsymbol{X}_i Xi? 的條件下保持無偏性。

總結如下:

  • 隨機缺失(MAR):數據的缺失僅依賴于已觀測的數據,而不依賴于未觀測的數據,這使得我們能夠基于觀測數據的概率來調整缺失數據的影響。

  • 逆概率加權(IPW):通過將每個觀測數據點的權重設置為其被觀測概率的倒數,我們能夠平衡數據,減少因缺失數據引入的偏差。

  • 期望條件:逆概率加權調整項在給定 X i \boldsymbol{X}_i Xi? 的情況下,平均值為 1,確保了估計的無偏性。

隨機缺失意味著缺失僅依賴于已觀測的數據,逆概率加權通過使用被觀測概率的倒數作為權重來調整缺失數據,確保在給定? X i 的情況下,期望調整項的平均值為零,從而保證估計的無偏性。 \boxed{ \text{隨機缺失意味著缺失僅依賴于已觀測的數據,逆概率加權通過使用被觀測概率的倒數作為權重來調整缺失數據,確保在給定 } \boldsymbol{X}_i \text{ 的情況下,期望調整項的平均值為零,從而保證估計的無偏性。} } 隨機缺失意味著缺失僅依賴于已觀測的數據,逆概率加權通過使用被觀測概率的倒數作為權重來調整缺失數據,確保在給定?Xi??的情況下,期望調整項的平均值為零,從而保證估計的無偏性。?

上面的推導我基本明白了,但是為什么期望為0就是無偏呢?無偏性難道不是估計量的期望等于真參數嘛?

無偏性通常是指估計量的期望等于真實參數值。但在這里,我們討論的是逆概率加權調整項的期望為零,這和無偏性有什么關系呢?

讓我試著理清這個邏輯。

首先,我們有一個估計量 θ ^ \hat{\theta} θ^,如果它是無偏的,那么:

E { θ ^ } = θ E\left\{ \hat{\theta} \right\} = \theta E{θ^}=θ

在這個具體的情境中,我們的目標是通過逆概率加權調整目標函數來得到一個無偏的估計量。具體來說,我們使用了加權后的目標函數:

∑ i = 1 n r i π i M \sum_{i=1}^n \frac{r_i}{\pi_i} M i=1n?πi?ri??M

這里的 r i π i \frac{r_i}{\pi_i} πi?ri?? 是逆概率加權調整項。我們已經證明了:

E { r i π i ? 1 ∣ X i } = 0 E\left\{\left. \frac{r_i}{\pi_i} - 1 \right| \boldsymbol{X}_i \right\} = 0 E{πi?ri???1 ?Xi?}=0

也就是說, r i π i \frac{r_i}{\pi_i} πi?ri?? 的期望值在給定 X i \boldsymbol{X}_i Xi? 的情況下是 1。

那么,這如何保證我們的估計量是無偏的呢?

讓我們考慮一下估計量的期望。假設我們的估計量是:

β ^ h = arg ? min ? β ∑ i = 1 n r i π i M \hat{\beta}_h = \arg \min_{\beta} \sum_{i=1}^n \frac{r_i}{\pi_i} M β^?h?=argβmin?i=1n?πi?ri??M

為了證明 β ^ h \hat{\beta}_h β^?h? 是無偏的,我們需要證明:

E { β ^ h } = β E\left\{ \hat{\beta}_h \right\} = \beta E{β^?h?}=β

直接計算這個期望可能比較復雜,但我們可以從目標函數的角度來考慮。如果調整項 r i π i \frac{r_i}{\pi_i} πi?ri?? 的期望為 1,那么在期望意義上,加權后的目標函數與未加權的目標函數是一致的:

E { ∑ i = 1 n r i π i M } = ∑ i = 1 n E { r i π i } M = ∑ i = 1 n M E\left\{ \sum_{i=1}^n \frac{r_i}{\pi_i} M \right\} = \sum_{i=1}^n E\left\{ \frac{r_i}{\pi_i} \right\} M = \sum_{i=1}^n M E{i=1n?πi?ri??M}=i=1n?E{πi?ri??}M=i=1n?M

這表明,逆概率加權調整項在期望上沒有引入額外的偏差,因此最小化加權目標函數應該能夠得到與最小化真實目標函數相同的估計量,從而保證估計量的無偏性。

換句話說,雖然我們是在處理缺失數據,通過逆概率加權調整,我們確保了在期望上,估計量的行為與沒有缺失數據時是一致的。因此,即使數據有缺失,估計量的期望仍然等于真實參數值,從而保證了無偏性。

總結一下:

  • 逆概率加權調整項的期望為 1:這確保了加權后的目標函數在期望上與未加權的目標函數一致。

  • 無偏性:因為加權目標函數的期望沒有引入額外的偏差,估計量在期望上等于真實參數值。

逆概率加權調整項的期望為1,確保了加權目標函數在期望上與真實目標函數一致,從而保證了估計量的無偏性。 \boxed{ \text{逆概率加權調整項的期望為1,確保了加權目標函數在期望上與真實目標函數一致,從而保證了估計量的無偏性。} } 逆概率加權調整項的期望為1,確保了加權目標函數在期望上與真實目標函數一致,從而保證了估計量的無偏性。?

這里的 π i \pi_i πi?是什么意思?是指的第 i i i個樣本的概率嗎, 如何獲得呢?

讓我來解釋一下 π i \pi_i πi? 的含義。

在前面的討論中, π i \pi_i πi? 被定義為 r i r_i ri? 為 1 的概率,即 Y i Y_i Yi? 被觀測到的概率。具體來說:

π i = π ( X i ) = P ( r i = 1 ∣ X i ) \pi_i = \pi(\boldsymbol{X}_i) = P(r_i = 1 \mid \boldsymbol{X}_i) πi?=π(Xi?)=P(ri?=1Xi?)

因此, π i \pi_i πi? 表示第 i i i 個樣本的 Y i Y_i Yi? 被觀測到的條件概率,這個概率依賴于第 i i i 個樣本的協變量 X i \boldsymbol{X}_i Xi?

在隨機缺失(MAR)的假設下,缺失機制僅依賴于已觀測的數據 X i \boldsymbol{X}_i Xi?,而不依賴于未觀測的 Y i Y_i Yi?。這使得 π i \pi_i πi? 可以基于 X i \boldsymbol{X}_i Xi? 來建模和估計,從而允許我們使用逆概率加權等方法來調整缺失數據的影響。

總結一下, π i \pi_i πi? 是第 i i i 個樣本的 Y i Y_i Yi? 被觀測到的概率,具體為:

π i = P ( r i = 1 ∣ X i ) \boxed{ \pi_i = P(r_i = 1 \mid \boldsymbol{X}_i) } πi?=P(ri?=1Xi?)?

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/65955.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/65955.shtml
英文地址,請注明出處:http://en.pswp.cn/web/65955.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

極客說|Azure AI Agent Service 結合 AutoGen/Semantic Kernel 構建多智能體解決?案

作者:盧建暉 - 微軟高級云技術布道師 「極客說」 是一檔專注 AI 時代開發者分享的專欄,我們邀請來自微軟以及技術社區專家,帶來最前沿的技術干貨與實踐經驗。在這里,您將看到深度教程、最佳實踐和創新解決方案。關注「極客說」&am…

【集成學習】Boosting算法詳解

文章目錄 1. 集成學習概述2. Boosting算法詳解3. Gradient Boosting算法詳解3.1 基本思想3.2 公式推導 4. Python實現 1. 集成學習概述 集成學習(Ensemble Learning)是一種通過結合多個模型的預測結果來提高整體預測性能的技術。相比于單個模型&#xf…

小米vela系統(基于開源nuttx內核)——如何使用信號量進行PV操作

如何使用信號量進行PV操作 前言信號量1. 信號量簡介2. NuttX中信號量的創建與使用2.1 Nuttx信號量的初始化和銷毀2.2 信號量的等待和發布 3. 信號量的實際應用:下載任務示例3.1 實際代碼3.2 代碼說明3.3 執行說明 4. 信號量的優勢與應用場景5. 常見應用場景&#xf…

CMake學習筆記(2)

1. 嵌套的CMake 如果項目很大,或者項目中有很多的源碼目錄,在通過CMake管理項目的時候如果只使用一個CMakeLists.txt,那么這個文件相對會比較復雜,有一種化繁為簡的方式就是給每個源碼目錄都添加一個CMakeLists.txt文件&#xff…

旅游網站設計與實現

文末附有完整項目代碼 在當今數字化時代,旅游網站成為人們獲取旅游信息的重要途徑。本文將詳細介紹旅游網站的設計與實現,讓你輕松了解其中的技術奧秘! 一、項目背景 隨著社會經濟的發展,人們對精神消費愈發重視,旅游…

【C++】size_t究竟是什么?全面解析與深入拓展

博客主頁: [小????????] 本文專欄: C 文章目錄 💯前言💯一、什么是size_t?為什么需要size_t? 💯二、size_t的特性與用途1. size_t是無符號類型示例: 2. size_t的跨平臺適應性示例對…

【物流管理系統 - IDEAJavaSwingMySQL】基于Java實現的物流管理系統導入IDEA教程

有問題請留言或私信 步驟 下載項目源碼:項目源碼 解壓項目源碼到本地 打開IDEA 左上角:文件 → 新建 → 來自現有源代碼的項目 找到解壓在本地的項目源代碼文件,點擊確定,根據圖示步驟繼續導入項目 查看項目目錄&#xff…

ssh2-sftp-client和ssh2配合使用js腳本快速部署項目到服務器

有時候因為服務器不能實現github或者gitlab的自動部署服務,所以就需要使用腳本來實現自動部署,可以省時省力,一勞永逸。這里就使用ssh2-sftp-client和ssh2來實現,即便是需要sudo權限,也是可以的。 1.先將本地打包后的…

深度解析Linux中的調試器gdb/cgdb的使用

Linux下我們編譯好的代碼,無法直接調試 gcc/g默認的工作模式是realse模式 程序要調試的話,必須是debug模式,也就是說編譯的時候要加-g選項 gdb攜帶調試信息的exe 我們現在在文件夾里面創建一個文件lesson11 里面創建一個累加的代碼&…

【Maui】動態菜單實現(綁定數據視圖)

前言 .NET 多平臺應用 UI (.NET MAUI) 是一個跨平臺框架,用于使用 C# 和 XAML 創建本機移動和桌面應用。 使用 .NET MAUI,可從單個共享代碼庫開發可在 Android、iOS、macOS 和 Windows 上運行的應用。 .NET MAUI 是一款開放源代碼應用,是 X…

Bash語言的語法糖

Bash語言的語法糖 引言 在現代編程語言中,“語法糖”是一個非常常見的術語,它指的是那些使代碼更加易讀、易寫的語法特性。盡管這些特性并不改變語言的功能,但它們能顯著提升開發者的編程體驗。在眾多編程語言中,Bash&#xff0…

linux---Nginx詳細教程(包含安裝,網站部署)

Nginx是一個高性能的HTTP和反向代理服務器,也可以用作郵件代理服務器,其以占有內存少、并發能力強、穩定性高、豐富的功能集、低系統資源消耗而聞名。以下是對Nginx的詳細教程: 一、Nginx簡介 Nginx由俄羅斯人開發,第一個公開版…

RNN之:LSTM 長短期記憶模型-結構-理論詳解-及實戰(Matlab向)

0.前言 遞歸!循環神經網絡Recurrent Neural Network 循環神經網絡(又稱遞歸神經網絡,Recurrent Neural Network,RNN)。是一種用于處理序列數據的神經網絡結構,具有記憶功能,能夠捕捉序列中的時…

泛目錄和泛站有什么差別

啥是 SEO 泛目錄? 咱先來說說 SEO 泛目錄是啥。想象一下,你有一個巨大的圖書館,里面的書架上擺滿了各種各樣的書,每一本書都代表著一個網頁。而 SEO 泛目錄呢,就像是一個超級圖書管理員,它的任務就是把這些…

初識@ffmpeg/ffmpeg庫

前言 FFmpeg是一套可以用來記錄、轉換數字音頻、視頻,并且能夠利用它們來創建一個新的流媒體格式的自由軟件項目,它被廣泛應用在視頻處理、音頻處理以及直播領域。其中,@ffmpeg/ffmpeg 是一個將 FFmpeg 編譯為 WebAssembly(WASM)的庫,可支持幾乎所有的音視頻格式。 安裝…

【圖像去噪】論文復現:反向擴散中加入MAP將擴散模型從高斯去噪推廣到真實去噪!DiffusionVI的Pytorch源碼復現,跑通源碼,梳理理論,單卡可執行!

請先看【專欄介紹文章】:【圖像去噪(Image Denoising)】關于【圖像去噪】專欄的相關說明,包含適配人群、專欄簡介、專欄亮點、閱讀方法、定價理由、品質承諾、關于更新、去噪概述、文章目錄、資料匯總、問題匯總(更新中) 完整代碼和訓練好的模型權重文件下載鏈接見本文底…

Windows 藍牙驅動開發-簡介

藍牙(英語:Bluetooth)是一種無線通信技術標準,用來讓固定與移動設備,在短距離間交換資料,以形成個人局域網(PAN)。其使用短波特高頻(UHF)無線電波,經由2.4至2.485 GHz的ISM頻段來進行通信。1994年由電信商愛立信(Erics…

【Vue】全局/局部組件使用流程(Vue2為例)

全局組件和局部組件區別 如何使用 全局組件:全局注冊后,可以在任意頁面中直接使用。局部組件:在頁面中需要先導入子組件路徑,注冊組件才能使用。 適用場景 全局組件:適用于高頻使用的組件,如導航欄、業…

【Pytorch實用教程】PyTorch 中如何輸出模型參數:全面指南

文章目錄 PyTorch 中如何輸出模型參數:全面指南1. 為什么需要輸出模型參數?2. PyTorch 中輸出模型參數的方法2.1 使用 `model.parameters()` 輸出所有參數2.2 使用 `model.named_parameters()` 輸出參數名稱和值2.3 使用 `model.state_dict()` 輸出模型的參數字典2.4 輸出特定…

vscode vue 自動格式化

vscode vue 自動格式化 安裝Prettier和Vetur插件 選擇設置,并且轉到編輯文件。增加如下內容。 {"editor.formatOnSave": true,"editor.defaultFormatter": "esbenp.prettier-vscode","[vue]": {"editor.defaultFor…