線性代數|機器學習-P21概率定義和Markov不等式

文章目錄

1. 樣本期望和方差

1.1 樣本期望 E ( X ) \mathrm{E}(X) E(X)

假設我們有N個樣本及概率如下 x 1 → p 1 , x 2 → p 2 , ? , x n → p n x_1\rightarrow p_1,x_2\rightarrow p_2,\cdots,x_n\rightarrow p_n x1?p1?,x2?p2?,?,xn?pn?,那么樣本期望 E ( X ) E(X) E(X)
E ( X ) = m = ∑ i = 1 N p i x i \begin{equation} \mathrm{E}(X)=m=\sum_{i=1}^Np_ix_i \end{equation} E(X)=m=i=1N?pi?xi???

  • 函數期望:
    E ( f ( x ) ) = m = ∑ i = 1 N p i f ( x i ) \begin{equation} \mathrm{E}(f(x))=m=\sum_{i=1}^Np_if(x_i) \end{equation} E(f(x))=m=i=1N?pi?f(xi?)??

1.2 樣本期望 D ( X ) \mathrm{D}(X) D(X)

D ( X ) = σ 2 = E [ ( x i ? m ) 2 ] \begin{equation} \mathrm{D}(X)=\sigma^2=\mathrm{E}[(x_i-m)^2] \end{equation} D(X)=σ2=E[(xi??m)2]??

  • 展開可得:
    D ( X ) = ∑ i = 1 N p i ( x i ? m ) 2 \begin{equation} \mathrm{D}(X)=\sum_{i=1}^Np_i(x_i-m)^2 \end{equation} D(X)=i=1N?pi?(xi??m)2??
  • 展開可得:
    = p 1 ( x 1 2 + m 2 ? 2 x 1 m ) + p 2 ( x 2 2 + m 2 ? 2 x 2 m ) + ? + p n ( x n 2 + m 2 ? 2 x n m ) \begin{equation} =p_1(x_1^2+m^2-2x_1m)+p_2(x_2^2+m^2-2x_2m)+\cdots+p_n(x_n^2+m^2-2x_nm) \end{equation} =p1?(x12?+m2?2x1?m)+p2?(x22?+m2?2x2?m)+?+pn?(xn2?+m2?2xn?m)??
    = p 1 ( x 1 2 + x 2 2 + ? + x n 2 ) + ( p 1 + p 2 + ? + p n ) m 2 ? 2 m ( p 1 x 1 + p 2 x 2 + ? + p n x n ) \begin{equation} =p_1(x_1^2+x_2^2+\cdots+x_n^2)+(p_1+p_2+\cdots+p_n)m^2-2m(p_1x_1+p_2x_2+\cdots+p_nx_n) \end{equation} =p1?(x12?+x22?+?+xn2?)+(p1?+p2?+?+pn?)m2?2m(p1?x1?+p2?x2?+?+pn?xn?)??
  • 因為 p 1 + p 2 + ? + p n = 1 , p 1 x 1 + p 2 x 2 + ? + p n x n = m p_1+p_2+\cdots+p_n=1,p_1x_1+p_2x_2+\cdots+p_nx_n=m p1?+p2?+?+pn?=1,p1?x1?+p2?x2?+?+pn?xn?=m
  • E ( X 2 ) = p 1 ( x 1 2 + x 2 2 + ? + x n 2 ) , E ( X ) = m = ∑ i = 1 N p i x i \mathrm{E}(X^2)=p_1(x_1^2+x_2^2+\cdots+x_n^2),\mathrm{E}(X)=m=\sum_{i=1}^Np_ix_i E(X2)=p1?(x12?+x22?+?+xn2?),E(X)=m=i=1N?pi?xi?
  • 整理可得:
    D ( X ) = E ( X 2 ) + m 2 ? 2 m 2 = E ( X 2 ) ? [ E ( X ) ] 2 \begin{equation} D(X)=\mathrm{E}(X^2)+m^2-2m^2=\mathrm{E}(X^2)-[\mathrm{E}(X)]^2 \end{equation} D(X)=E(X2)+m2?2m2=E(X2)?[E(X)]2??

2. Markov 不等式&Chebyshev不等式

2.1 Markov不等式公式 概述

假設X是一個均值有限的非負隨機變量,均值為 E ( X ) \mathrm{E}(X) E(X),這意味著 P ( X < 0 ) = 0 P(X<0)=0 P(X<0)=0,那么對于任意的正數a,有
P r o b ( X ≥ a ) ≤ E ( X ) a , X i ≥ 0 \begin{equation} Prob(X\ge a)\le\frac{\mathrm{E}(X)}{a},X_i\ge 0 \end{equation} Prob(Xa)aE(X)?,Xi?0??

  • 同等公式如下:
    P r o b ( X < a ) ≥ 1 ? E ( X ) a \begin{equation} Prob(X< a)\ge 1-\frac{\mathrm{E}(X)}{a} \end{equation} Prob(X<a)1?aE(X)???

2.2 Markov不等式公式 證明:

我們定義樣本分布的概率密度為 f ( x ) f(x) f(x),如下圖所述:
在這里插入圖片描述

  • 我們可以得到期望E(X)表示如下:
    E ( X ) = ∫ 0 ∞ x f ( x ) d x \begin{equation} \mathrm{E}(X)=\int_{0}^{\infty}xf(x)\mathrm{d}x \end{equation} E(X)=0?xf(x)dx??
  • 因為 x , f(x)我們定義均大于等于0,所以可以進行縮放,將原來積分從0到正無窮縮小到a到正無窮
    ∫ 0 ∞ x f ( x ) d x ≥ ∫ a ∞ x f ( x ) d x \begin{equation} \int_{0}^{\infty}xf(x)\mathrm{d}x\ge\int_{a}^{\infty}xf(x)\mathrm{d}x \end{equation} 0?xf(x)dxa?xf(x)dx??
  • 因為每個x現在都大于等于a, x ≥ a x\ge a xa,所以可以將系數x縮放為a,即:
    ∫ 0 ∞ x f ( x ) d x ≥ ∫ a ∞ x f ( x ) d x ≥ ∫ a ∞ a f ( x ) d x = a ∫ a ∞ f ( x ) d x \begin{equation} \int_{0}^{\infty}xf(x)\mathrm{d}x\ge\int_{a}^{\infty}xf(x)\mathrm{d}x\ge\int_{a}^{\infty}af(x)\mathrm{d}x=a\int_{a}^{\infty}f(x)\mathrm{d}x \end{equation} 0?xf(x)dxa?xf(x)dxa?af(x)dx=aa?f(x)dx??
  • 這里的 ∫ a ∞ f ( x ) d x = P ( X ≥ a ) \int_{a}^{\infty}f(x)\mathrm{d}x=P(X\ge a) a?f(x)dx=P(Xa),則整理上面公式可得:
    E ( X ) ≥ a P ( X ≥ a ) → P ( X ≥ a ) ≤ E ( X ) a \begin{equation} \mathrm{E}(X)\ge a P(X\ge a)\rightarrow P(X\ge a)\le \frac{\mathrm{E}(X)}{a} \end{equation} E(X)aP(Xa)P(Xa)aE(X)???
  • 綜上所述,我們得到馬爾科夫不等式如下:
    P ( X ≥ a ) ≤ E ( X ) a \begin{equation} P(X\ge a)\le \frac{\mathrm{E}(X)}{a} \end{equation} P(Xa)aE(X)???
  • 假設樣本和概率表示如下:
Sample x 1 = 1 x_1=1 x1?=1 x 2 = 2 x_2=2 x2?=2 x 3 = 3 x_3=3 x3?=3 x 4 = 4 x_4=4 x4?=4 x 5 = 5 x_5=5 x5?=5
P p 1 p_1 p1? p 2 p_2 p2? p 3 p_3 p3? p 4 p_4 p4? p 5 p_5 p5?

E ( X ) = p 1 x 1 + p 2 x 2 + p 3 x 3 + p 4 x 4 + p 5 x 5 \begin{equation} \mathrm{E}(X)=p_1x_1+p_2x_2+p_3x_3+p_4x_4+p_5x_5 \end{equation} E(X)=p1?x1?+p2?x2?+p3?x3?+p4?x4?+p5?x5???

  • 我們假設期望為1 , E ( X ) = 1 \mathrm{E}(X)=1 E(X)=1
    - E ( X ) = p 1 x 1 + p 2 x 2 + p 3 x 3 + p 4 x 4 + p 5 x 5 = 1 \begin{equation} \mathrm{E}(X)=p_1x_1+p_2x_2+p_3x_3+p_4x_4+p_5x_5=1 \end{equation} E(X)=p1?x1?+p2?x2?+p3?x3?+p4?x4?+p5?x5?=1??
  • X>3的概率如下:
    P r o b ( X ≥ 3 ) ≤ E ( X ) 3 → P r o b ( X ≥ 3 ) ≤ 1 3 \begin{equation} Prob(X\ge 3)\le\frac{\mathrm{E}(X)}{3}\rightarrow Prob(X\ge 3)\le\frac{1}{3}\end{equation} Prob(X3)3E(X)?Prob(X3)31???
    p 3 + p 4 + p 5 ≤ 1 3 \begin{equation} p_3+p_4+p_5\le\frac{1}{3}\end{equation} p3?+p4?+p5?31???

2.3 Markov不等式公式 舉例:

假設Andrew在平時工作一個星期中平均下來一個星期會犯 4 次錯,也就是期望 E ( X ) = 4 \mathrm{E}(X)=4 E(X)=4,那么我們想知道如果Andrew在平時工作一個星期中會犯 10 次以上的錯的概率多少?轉換到數學公式如下:
E ( X ) = 4 , P r o b ( X > 10 ) ≤ E ( X ) 10 → P r o b ( X > 10 ) ≤ 40 % \begin{equation} \mathrm{E}(X)=4, Prob(X>10)\le \frac{\mathrm{E}(X)}{10}\rightarrow Prob(X>10)\le40\% \end{equation} E(X)=4,Prob(X>10)10E(X)?Prob(X>10)40%??

  • 也就是說Andrew 在平時一個星期中犯錯10次以上的概率不會超過 40 % 40\% 40%

2.4 Chebyshev不等式公式概述:

如果隨機變量X的期望 μ \mu μ,方差 σ \sigma σ存在,則對于任意 ? > 0 \epsilon >0 ?>0,有如下公式:
P ( ∣ X ? μ ∣ ≥ ? ) ≤ σ 2 ? 2 \begin{equation} P{(|X-\mu|\ge \epsilon)}\le \frac{\sigma^2}{\epsilon^2} \end{equation} P(X?μ?)?2σ2???

2.5 Chebyshev不等式公式證明:

我們已經證明了馬爾科夫不等式表示如下:
P ( Y ≥ a ) ≤ E ( Y ) a \begin{equation} P(Y\ge a)\le \frac{\mathrm{E}(Y)}{a} \end{equation} P(Ya)aE(Y)???

  • 這里我們令 Y = ( X ? μ ) 2 , a = ? 2 Y=(X-\mu)^2,a=\epsilon^2 Y=(X?μ)2,a=?2代入到公式中:
    P ( ( X ? μ ) 2 ≥ ? 2 ) ≤ E ( ( X ? μ ) 2 ) ? 2 \begin{equation} P((X-\mu)^2\ge \epsilon^2)\le \frac{\mathrm{E}((X-\mu)^2)}{\epsilon^2} \end{equation} P((X?μ)2?2)?2E((X?μ)2)???
  • 我們可以發現 P ( ( X ? μ ) 2 ≥ ? 2 ) P((X-\mu)^2\ge \epsilon^2) P((X?μ)2?2)等效于 P ( ∣ X ? μ ∣ ≥ ? ) P(|X-\mu|\ge \epsilon) P(X?μ?), σ 2 = E ( ( X ? μ ) 2 ) \sigma^2=\mathrm{E}((X-\mu)^2) σ2=E((X?μ)2)
  • 整理上述公式可得切爾雪夫不等式結果:
    P ( ∣ X ? μ ∣ ≥ ? ) ≤ σ 2 ? 2 \begin{equation} P(|X-\mu|\ge \epsilon)\le \frac{\sigma^2}{\epsilon^2} \end{equation} P(X?μ?)?2σ2???

3. 協方差矩陣

Ω \Omega Ω為樣本空間,P是定義在 Ω \Omega Ω的事件族 Σ \Sigma Σ上的概率,換句話來說, Ω , Σ , P \Omega,\Sigma,P Ω,Σ,P是個概率空間;若X與Y定義在 Ω \Omega Ω上兩個實數隨機變量,期望分別為:
E ( X ) = ∫ Ω X d P = μ ; E ( Y ) = ∫ Ω Y d P = v ; \begin{equation} \mathrm{E}(X)=\int_{\Omega}X\mathrm{d}P=\mu;\mathrm{E}(Y)=\int_{\Omega}Y\mathrm{d}P=v; \end{equation} E(X)=Ω?XdP=μ;E(Y)=Ω?YdP=v;??

  • 則兩者間的協方差定義為:
    c o v ( X , Y ) = E [ ( X ? μ ) ( Y ? v ) ] \begin{equation} \mathrm{cov}(X,Y)=\mathrm{E}[(X-\mu)(Y-v)] \end{equation} cov(X,Y)=E[(X?μ)(Y?v)]??

3.1 舉例

[感覺老師舉的例子不好]
假設我們有兩個硬幣,X,Y 正反的概率均為0.5,那么概率矩陣為:

  • 當兩個硬幣單獨扔下去時,概率矩陣如下:
Sample x 1 = 正 x_1=正 x1?= x 2 = 反 x_2=反 x2?=
y 1 = 正 y_1=正 y1?= 1 4 \frac{1}{4} 41? 1 4 \frac{1}{4} 41?
y 2 = 反 y_2=反 y2?= 1 4 \frac{1}{4} 41? 1 4 \frac{1}{4} 41?
  • 當兩個硬幣粘貼在一起扔下去時,概率矩陣如下:
Sample x 1 = 正 x_1=正 x1?= x 2 = 反 x_2=反 x2?=
y 1 = 正 y_1=正 y1?= 1 2 \frac{1}{2} 21? 0 0 0
y 2 = 反 y_2=反 y2?= 0 0 0 1 2 \frac{1}{2} 21?
  • 當三個硬幣單獨扔下去時,兩個硬幣用平面表示,三個硬幣用立方體表示
    P H H H = 1 8 \begin{equation} P_{HHH}=\frac{1}{8} \end{equation} PHHH?=81???
    在這里插入圖片描述

3.2 Python 代碼

C O V ( X , Y ) = 0.14516142787498987 \mathrm{COV}(X,Y)= 0.14516142787498987 COV(X,Y)=0.14516142787498987

import numpy as np
import matplotlib.pyplot as plt# Generate some data
x = np.random.rand(100)
y = 2 * x + np.random.normal(0, 0.1, 100)  # y is roughly 2 times x with some noise# Calculate the covariance matrix
cov_matrix = np.cov(x, y)# Extract the covariance value
cov_xy = cov_matrix[0, 1]print(f"Covariance between x and y: {cov_xy}")# Plotting the data
plt.scatter(x, y)
plt.title('Scatter plot of x and y')
plt.xlabel('x')
plt.ylabel('y')
plt.show()

在這里插入圖片描述

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/39991.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/39991.shtml
英文地址,請注明出處:http://en.pswp.cn/web/39991.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

AI繪畫 Stable Diffusion圖像的臉部細節控制——采樣器全解析

大家好&#xff0c;我是畫畫的小強 我們在運用AI繪畫 Stable Diffusion 這一功能強大的AI繪圖工具時&#xff0c;我們往往會發現自己對提示詞的使用還不夠充分。在這種情形下&#xff0c;我們應當如何調整自己的策略&#xff0c;以便更加精確、全面地塑造出理想的人物形象呢&a…

域環境提權

域內提權漏洞(1) Netlogon域權限提升 1.查看域控主機名稱 net group "domain controllers" /domain 2.檢測漏洞是否存在 https://github.com/SecuraBV/CVE-2020-1472.git python zerologon_tester.py OWA 192.168.52.138 3.漏洞利用&#xff0c;對域賬號重置 ht…

《簡歷寶典》01 - 一文帶你學會如何寫一份糟糕透頂的簡歷

我們每個人幾乎都會面對找工作這件事&#xff0c;而找工作或者說求職首先就是要寫一份簡歷。今天狗哥將以一個不同的視角帶你寫一份無與倫比&#xff0c;糟糕透頂的求職簡歷&#xff0c;說實話&#xff0c;其實幾年前&#xff0c;我就是這么寫的。 目錄 1. 文件名 2. 基本信…

【項目管理】項目風險管理(Word原件)

風險和機會管理就是在一個項目開發過程中對風險進行識別、跟蹤、控制的手段。風險和機會管理提供了對可能出現的風險進行持續評估&#xff0c;確定重要的風險機會以及實施處理的策略的一種規范化的環境。包括識別、分析、制定處理和減緩行動、跟蹤 。合理的風險和機會管理應盡力…

白騎士的Python教學進階篇 2.4 高級數據結構

系列目錄 上一篇&#xff1a;白騎士的Python教學進階篇 2.3 文件操作??????? 在Python中&#xff0c;掌握高級數據結構可以顯著提升你的編程效率和代碼可讀性。高級數據結構包括列表推導式、生成器與迭代器以及裝飾器。本文將詳細介紹這些高級數據結構&#xff0c;幫助…

算法刷題1-10大排序算法匯總

十種常見排序算法可以分為兩大類&#xff1a; 比較類排序&#xff1a;通過比較來決定元素間的相對次序&#xff0c;由于其時間復雜度不能突破O(nlogn)&#xff0c;因此也稱為非線性時間比較類排序。非比較類排序&#xff1a;不通過比較來決定元素間的相對次序&#xff0c;它可…

服務器安裝Nginx教程

1、安裝所需依賴 yum -y install gcc gcc-c make libtool zlib zlib-devel openssl openssl-devel pcre pcre-devel 2、創建nginx目錄并下載Nginx安裝包 //進入/usr/local cd /usr/local//創建nginx目錄 mkdir nginx//進入nginx目錄 cd nginx//下載nginx tar包 wget http://…

Lesson 47 A cup of coffee

Lesson 47 A cup of coffee 詞匯 like v. 喜歡&#xff0c;想要 用法&#xff1a;like 物品 / 人 喜歡……    like 動詞ing 喜歡做……&#xff08;習慣性&#xff09;    like to 動詞原形 喜歡做……&#xff08;一次性&#xff09; 例句&#xff1a;我喜歡小狗…

[leetcode hot 150]第五百三十題,二叉搜索樹的最小絕對差

題目&#xff1a; 給你一個二叉搜索樹的根節點 root &#xff0c;返回 樹中任意兩不同節點值之間的最小差值 。 差值是一個正數&#xff0c;其數值等于兩值之差的絕對值。 解析&#xff1a; minDiffInBST 方法是主要方法。創建一個 ArrayList 來存儲樹的節點值。inorderTrave…

前端日常掃盲

一、js標簽語句 直接上代碼 for(let i 0; i < 10; i){console.log("頂層循環");for(let j 0; j < 10; j){console.log("內層循環",i,j);if(i * j > 30){console.log("退出頂層循環");break;}} }如上面的代碼&#xff0c;雙層循環&a…

opencv-yolo-tiny車輛檢測 ----20240705

opencv-yolo-tiny 實現車輛檢測 opencv.dnn模塊已經支持大部分格式的深度學習模型推理,該模塊可以直接加載tensorflow、darknet、pytorch等常見深度學習框架訓練出來的模型,并運行推理得到模型輸出結果。opecnv.dnn模塊已經作為一種模型部署方式,應用在工業落地實際場景中。…

持續交付:自動化測試與發布流程的變革

目錄 前言1. 持續交付的概念1.1 持續交付的定義1.2 持續交付的核心原則 2. 持續交付的優勢2.1 提高交付速度2.2 提高軟件質量2.3 降低發布風險2.4 提高團隊協作 3. 實施持續交付的步驟3.1 構建自動化測試體系3.1.1 單元測試3.1.2 集成測試3.1.3 功能測試3.1.4 性能測試 3.2 構建…

(一)進程與線程

一、進程和線程的概念 1.1 進程 程序由指令和數據組成&#xff0c;但這些指令要運行&#xff0c;數據要讀寫&#xff0c;就必須將指令加載至CPU&#xff0c;數據加載至內存。在指令運行過程中還需要用到磁盤、網絡等設備。進程就是用來加載指令、管理內存、管理 IO 的。當一個…

鴻蒙系統的開發與學習

1.開發工具的下載 DevEco Studio-HarmonyOS Next Beta版-華為開發者聯盟 安裝、環境配置時&#xff0c;建議 自定義目錄 注意&#xff1a;路徑中不要有 中文、特殊字符。 2.ArkTS基礎總結 1&#xff09;三種數據類型 ① string 字符串&#xff1a;描述信息 ② number 數…

銀聯快捷支付的優點!

快速支付&#xff0c;又稱電子支付或第三方支付&#xff0c;在行業中得到了廣泛的應用。用戶只需通過銀行完成交易。方便快捷是指銀行可以在任何條件下支持用戶之間的轉賬、支付等即時結算服務。快速支付是指用戶可以通過手機實現銀行卡等相關操作。然而&#xff0c;現在大多數…

Java后端每日面試題(day1)

目錄 JavaWeb三大組件依賴注入的方式Autowire和Resurce有什么區別&#xff1f;Spring Boot的優點Spring IoC是什么&#xff1f;說說Spring Aop的優點Component和Bean的區別自定義注解時使用的RetentionPolicy枚舉類有哪些值&#xff1f;如何理解Spring的SPI機制&#xff1f;Spr…

聽說現在AI產品經理薪資30k起步?0基礎可以轉行AI產品嗎?

2024年&#xff0c;還有什么新風口&#xff1f; AI、元宇宙、NFT… 很多人不知道&#xff0c;其實不管是元宇宙還是NFT&#xff0c;它們本質上就是人工智能領域。 AI自身應用領域非常廣泛&#xff0c;大批高薪崗位隨之涌了出來&#xff0c;包括AI產品經理。 AI產品經歷具體工…

CSS Float(浮動)

CSS Float(浮動) 概述 CSS Float(浮動)是一種布局技術,它允許開發人員將元素(如圖片或文本)沿著其容器的左側或右側放置,并且讓其他內容圍繞它流動。這種技術在過去被廣泛用于創建多欄布局,盡管現代CSS提供了更多高級的布局方法(如Flexbox和Grid),但理解浮動仍然…

【LeetCode:841. 鑰匙和房間 + DFS】

&#x1f680; 算法題 &#x1f680; &#x1f332; 算法刷題專欄 | 面試必備算法 | 面試高頻算法 &#x1f340; &#x1f332; 越難的東西,越要努力堅持&#xff0c;因為它具有很高的價值&#xff0c;算法就是這樣? &#x1f332; 作者簡介&#xff1a;碩風和煒&#xff0c;…

安卓手機已刪除短信如何恢復?這2個技巧,找回離家出走的短信

手機宛如一座豐富的寶庫&#xff0c;珍藏著生活中的點滴回憶。其中&#xff0c;短信作為溝通的橋梁&#xff0c;記錄著我們與親朋好友間的溫情脈脈&#xff0c;承載著無數珍貴的瞬間。然而&#xff0c;有時&#xff0c;我們卻會不慎觸發寶庫中的機關&#xff0c;使得這些寶貴的…