高斯混合模型GMMK均值(十三-1)——K均值是高斯混合模型的特例

EM算法與K均值算法的關系


K均值可以看成是高斯混合模型的特例。


對K均值算法與EM算法進行比較后,可以發現它們之間有很大的相似性。K均值算法將數據點硬(hard)分配到聚類中,每個數據點唯一地與一個聚類相關聯,而EM算法基于后驗概率進行軟(soft)分配。事實上,可以從EM算法推導出K均值算法。

考慮一個高斯混合模型,其中混合分量的協方差矩陣由 σ 2 I {\sigma^2} I σ2I給出,其中 σ 2 {\sigma^2} σ2是所有分量共享的方差參數, I I I是單位矩陣,因此

N ( x ∣ μ k , Σ k ) = 1 ( 2 π σ 2 ) d / 2 exp ? { ? 1 2 σ 2 ∥ x ? μ k ∥ 2 } (31) N(\bm{x}|{\bm \mu}_k, {\bm \varSigma}_k) = \frac{1}{(2\pi{\sigma^2})^{d/2}} \exp\left\{-\frac{1}{2{\sigma^2}}\|\bm{x}-{\bm \mu}_k\|^2\right\} \tag{31} N(xμk?,Σk?)=(2πσ2)d/21?exp{?2σ21?x?μk?2}(31)

考慮將要應用于這種形式的包含K個分量的高斯混合模型的EM算法,其中將 σ 2 {\sigma^2} σ2當作固定常數而不是重新估計的參數處理。根據式(12),特定數據點 x i \bm{x}_i xi?的后驗概率或責任由下式給出:

γ i k = π k exp ? { ? ∥ x i ? μ k ∥ 2 / 2 σ 2 } ∑ j π j exp ? { ? ∥ x i ? μ j ∥ 2 / 2 σ 2 } (32) \gamma_{ik} = \frac{\pi_k \exp\left\{-\|\bm{x}_i-{\bm \mu}_k\|^2 / 2{\sigma^2}\right\}}{\sum_j \pi_j \exp\left\{-\|\bm{x}_i-{\bm \mu}_j\|^2 / 2{\sigma^2}\right\}} \tag{32} γik?=j?πj?exp{?xi??μj?2/2σ2}πk?exp{?xi??μk?2/2σ2}?(32)

考慮極限 σ 2 → 0 {\sigma^2} \to 0 σ20,式(32)右側的分母中包含了以j索引的多個趨于零的項。假設使得 ∥ x i ? μ j ∥ 2 \|\bm{x}_i-{\bm \mu}_j\|^2 xi??μj?2最小的特定項(例如 j = l j=l j=l的項)將會最慢地趨于零并支配該平方和。因此,數據點 x i \bm{x}_i xi?的責任 γ i k \gamma_{ik} γik?除了第 l l l項外都會趨于零,第l項的責任 γ i k \gamma_{ik} γik?將趨于1。注意,這獨立于 π k \pi_k πk?的值,只要沒有任何 π k \pi_k πk?為零即可。因此,在這個極限下,獲得了數據點到聚類的硬分配,就像在K均值算法中一樣,所以 γ i k → r i k \gamma_{ik} \to r_{ik} γik?rik?,其中 r i k r_{ik} rik?由式(2)定義。每個數據點因此被分配到與其最近的均值所代表的聚類。

然后EM算法中 μ k {\bm \mu}_k μk?的重估方程由式(16)給出,并簡化為K均值算法的結果[式(4)]。注意,混合系數的重估方程[式(21)]僅是將 π k \pi_k πk?的值重置為分配給聚類k的數據點的比例,這些參數在算法中已不再起作用。

最后,在極限 σ 2 → 0 {\sigma^2} \to 0 σ20下,用來給出完整數據對數似然函數期望的式(30),就可以變為

E Z [ ln ? p ( X , Z ∣ μ , Σ , π ) ] → ? 1 2 ∑ n = 1 N ∑ k = 1 K r i k ∥ x i ? μ k ∥ 2 + const (33) {E}_Z[\ln p(X,Z|{\bm \mu},\Sigma,\pi)] \to -\frac{1}{2}\sum_{n=1}^N\sum_{k=1}^K r_{ik}\|\bm{x}_i-{\bm \mu}_k\|^2 + \text{const} \tag{33} EZ?[lnp(X,Zμ,Σ,π)]?21?n=1N?k=1K?rik?xi??μk?2+const(33)

因此,看到在這個極限下,完整數據對數似然函數的最大化期望等價于最小化K均值算法的誤差度量J,J由式(34)給出。注意,K均值算法不估計聚類的協方差,只估計聚類的均值。

J = 1 n ∑ i = 1 n ∑ k = 1 K r i ( k ) ∥ x i ? μ k ∥ 2 (34) J = \frac{1}{n} \sum_{i=1}^n \sum_{k=1}^K r_i(k) \|{\bm x}_i - \boldsymbol{{\bm \mu}}_k\|^2\tag{34} J=n1?i=1n?k=1K?ri?(k)xi??μk?2(34)

在這里插入圖片描述


算法 K-Means


  1. 初始化 K K K τ > 0 \tau > 0 τ>0 { μ k ( 0 ) } k = 1 K \{\boldsymbol{{\bm {\bm \mu}}}_k^{(0)}\}_{k=1}^K {μk(0)?}k=1K?

  2. repeat

  3. E 步:更新簇分配
    r i ( t + 1 ) ( k ) = { 1 , 若? k = arg ? min ? j = 1 , ? , K ∥ x i ? μ j ( t ) ∥ 2 0 , 否則 , i = 1 , ? , n r_i^{(t+1)}(k) = \begin{cases} 1, & \text{若 } k = \arg \min_{j=1,\cdots,K} \|{\bm x}_i - \boldsymbol{{\bm {\bm \mu}}}_j^{(t)}\|^2 \\ 0, & \text{否則} \end{cases}, \quad i=1,\cdots,n ri(t+1)?(k)={1,0,??k=argminj=1,?,K?xi??μj(t)?2否則?,i=1,?,n

  4. M 步:更新簇中心
    μ k ( t + 1 ) = ∑ i = 1 n r i ( t + 1 ) ( k ) x i ∑ i = 1 n r i ( t + 1 ) ( k ) , 對于? k = 1 , ? , K (4) \boldsymbol{{\bm {\bm \mu}}}_k^{(t+1)} = \frac{\sum\limits_{i=1}^n r_i^{(t+1)}(k) {\bm x}_i}{\sum\limits_{i=1}^n r_i^{(t+1)}(k)}, \quad \text{對于 } k=1,\cdots,K\tag{4} μk(t+1)?=i=1n?ri(t+1)?(k)i=1n?ri(t+1)?(k)xi??,對于?k=1,?,K(4)

  5. 計算得分:
    J ( t + 1 ) = 1 n ∑ i = 1 n ∑ k = 1 K r i ( t + 1 ) ( k ) ∥ x i ? μ k ( t + 1 ) ∥ 2 J^{(t+1)} = \frac{1}{n} \sum\limits_{i=1}^n \sum\limits_{k=1}^K r_i^{(t+1)}(k) \|{\bm x}_i - \boldsymbol{{\bm {\bm \mu}}}_k^{(t+1)}\|^2 J(t+1)=n1?i=1n?k=1K?ri(t+1)?(k)xi??μk(t+1)?2

  6. until ∣ J ( t + 1 ) ? J ( t ) ∣ < τ |J^{(t+1)} - J^{(t)}| < \tau J(t+1)?J(t)<τ


算法 使用EM和高斯混合模型聚類


  1. 初始化 K K K τ > 0 \tau > 0 τ>0 { π k ( 0 ) , μ k ( 0 ) , Σ k ( 0 ) } k = 1 K \{\pi_k^{(0)}, {\bm {\bm \mu}}_k^{(0)}, {\bm \varSigma}_k^{(0)}\}_{k=1}^K {πk(0)?,μk(0)?,Σk(0)?}k=1K?

  2. repeat

  3. E步:更新簇成員
    γ k ( t ) ( x i ) = π k ( t ) N ( x i ∣ μ k ( t ) , Σ k ( t ) ) ∑ k = 1 K π k ( t ) N ( x i ∣ μ k ( t ) , Σ k ( t ) ) \gamma_k^{(t)}({\bm x}_i) = \frac{\pi_k^{(t)} {N}({\bm x}_i \mid {\bm {\bm \mu}}_k^{(t)}, {\bm \varSigma}_k^{(t)})}{\sum\limits_{k=1}^K \pi_k^{(t)} {N}({\bm x}_i \mid {\bm {\bm \mu}}_k^{(t)}, {\bm \varSigma}_k^{(t)})} γk(t)?(xi?)=k=1K?πk(t)?N(xi?μk(t)?,Σk(t)?)πk(t)?N(xi?μk(t)?,Σk(t)?)?

  4. M步:重新估計模型參數
    μ k ( t + 1 ) = ∑ i = 1 n γ k ( t ) ( x i ) x i ∑ i = 1 n γ k ( t ) ( x i ) (16) {\bm {\bm \mu}}_k^{(t+1)} = \frac{\sum\limits_{i=1}^n \gamma_k^{(t)}({\bm x}_i) {\bm x}_i}{\sum\limits_{i=1}^n \gamma_k^{(t)}({\bm x}_i)}\tag{16} μk(t+1)?=i=1n?γk(t)?(xi?)i=1n?γk(t)?(xi?)xi??(16) Σ k ( t + 1 ) = ∑ i = 1 n γ k ( t ) ( x i ) ( x i ? μ ^ k ( t + 1 ) ) ( x i ? μ ^ k ( t + 1 ) ) ? ∑ i = 1 n γ k ( t ) ( x i ) {\bm \varSigma}_k^{(t+1)} = \frac{\sum\limits_{i=1}^n \gamma_k^{(t)}({\bm x}_i) ({\bm x}_i - \hat{{\bm {\bm \mu}}}_k^{(t+1)}) ({\bm x}_i - \hat{{\bm {\bm \mu}}}_k^{(t+1)})^ {\top} }{\sum\limits_{i=1}^n \gamma_k^{(t)}({\bm x}_i)} Σk(t+1)?=i=1n?γk(t)?(xi?)i=1n?γk(t)?(xi?)(xi??μ^?k(t+1)?)(xi??μ^?k(t+1)?)?? π k ( t + 1 ) = 1 n ∑ i = 1 n γ k ( t ) ( x i ) (21) \pi_k^{(t+1)} = \frac{1}{n} \sum\limits_{i=1}^n \gamma_k^{(t)}({\bm x}_i)\tag{21} πk(t+1)?=n1?i=1n?γk(t)?(xi?)(21)

  5. 計算對數似然:
    L ( { π k ( t + 1 ) , μ k ( t + 1 ) , Σ k ( t + 1 ) } k = 1 K ) = ∑ i = 1 n ln ? ( ∑ k = 1 K π k ( t + 1 ) N ( x i ∣ μ k ( t + 1 ) , Σ k ( t + 1 ) ) ) L(\{\pi_k^{(t+1)}, {\bm {\bm \mu}}_k^{(t+1)}, {\bm \varSigma}_k^{(t+1)}\}_{k=1}^K) = \sum\limits_{i=1}^n \ln \left( \sum\limits_{k=1}^K \pi_k^{(t+1)} {N}({\bm x}_i \mid {\bm {\bm \mu}}_k^{(t+1)}, {\bm \varSigma}_k^{(t+1)}) \right) L({πk(t+1)?,μk(t+1)?,Σk(t+1)?}k=1K?)=i=1n?ln(k=1K?πk(t+1)?N(xi?μk(t+1)?,Σk(t+1)?))

  6. until ∣ L ( { π k ( t + 1 ) , μ k ( t + 1 ) , Σ k ( t + 1 ) } k = 1 K ) ? L ( { π k ( t ) , μ k ( t ) , Σ k ( t ) } k = 1 K ) ∣ < τ |L(\{\pi_k^{(t+1)}, {\bm {\bm \mu}}_k^{(t+1)}, {\bm \varSigma}_k^{(t+1)}\}_{k=1}^K) - L(\{\pi_k^{(t)}, {\bm {\bm \mu}}_k^{(t)}, {\bm \varSigma}_k^{(t)}\}_{k=1}^K)| < \tau L({πk(t+1)?,μk(t+1)?,Σk(t+1)?}k=1K?)?L({πk(t)?,μk(t)?,Σk(t)?}k=1K?)<τ


本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/86663.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/86663.shtml
英文地址,請注明出處:http://en.pswp.cn/web/86663.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

StarRocks 向量索引如何讓大模型“記性更好”?

隨著 ChatGPT、DeepSeek 等大語言模型的普及&#xff0c;我們已經能夠與 AI 進行流暢的對話。然而&#xff0c;即使是最先進的大模型也面臨著“記憶困境”&#xff0c;具體表現模型只能記住訓練時接觸的知識&#xff0c;且這些知識在使用時很可能會過期。實際應用或在處理特定領…

UniApp Vue3 模式下實現頁面跳轉的全面指南

1. 引言 1.1 UniApp 與 Vue3 的結合優勢 UniApp 是一個使用 Vue.js 開發所有前端應用的框架,支持編譯到 iOS、Android、H5、以及各種小程序平臺。Vue3 提供了更高效的響應式系統和 Composition API,使開發體驗更加現代化和靈活。 1.2 頁面跳轉在應用開發中的重要性 頁面跳…

Solidity學習 - ABI 應用二進制接口

文章目錄 一、ABI 基礎概念1. ABI 與 API 的區別2. ABI 的核心作用 二、ABI 接口描述1. 編譯后的產物2. ABI JSON 格式示例3. ABI JSON 關鍵字段說明 三、ABI 編碼1. 編碼示例2. 編碼數據的組成3. Solidity 中的編碼函數 四、ABI 解碼1. 解碼的基本概念2. 事件日志的解碼 五、A…

星際爭霸數據集指南

星際爭霸作為檢驗AI效果的一個重要“模式生物”, 是驗證AI技術的重要平臺?&#xff0c;尤其在 深度學習 和 強化學習領域。該游戲因其復雜的游戲機制和實時決策要求&#xff0c;為AI研究提供了豐富的測試環境和挑戰。 本博文是記錄自己曾經研究星際爭霸AI時對于數據部分的一點…

VUE組件與組件之間的傳參

每次啟動vue2項目的時候在 vue.config.js中配置&#xff1a; const { defineConfig } require(vue/cli-service) module.exports defineConfig({transpileDependencies: true,//關閉語法嚴格檢驗lintOnSave:false})1&#xff1a;在 src 下 創建 utils 文件夾 然后創建 Bas…

8年java開發從零學習人工智能(深度學習)--pp飛槳(百度自研開源框架)

1.明確概念&#xff1a;人工智能>機器學習>深度學習&#xff0c;三者的關系是包含關系&#xff0c;如圖所示&#xff1a; 人工智能&#xff08;AI&#xff09;&#xff0c;很寬泛的概念&#xff0c;是研發用于模擬&#xff0c;延展和擴展人的智能的理論&#xff0c;方法&…

ci | cd

ci | cd 相當于開發人員和運維人員共同完成的東西 ci:Jenkins cd:k8s ci &#xff1a; 持續集成 開發人員寫出的代碼提交到共享倉庫 比如說Git 自動觸發代碼檢查 測試 好處&#xff1a; 很快的發現bug 代碼不用堆積 cd: 持續交付&#xff1a;代碼測試沒問題后 自動打包…

深入理解C#委托操作:添加、移除與調用全解析

關鍵詞&#xff1a;委托不可變性 多播委托 調用列表管理 ?? 一、委托的核心特性&#xff1a;不可變性 看似“添加”&#xff0c;實為新建 使用 為委托“添加”方法時&#xff08;如 delVar SCl.m3;&#xff09;&#xff1a; 系統創建全新委托對象新委托的調用列表 原…

Spring Cloud:微服務架構的基石與實踐指南

一、Spring Cloud 核心組件 &#xff08;一&#xff09;Spring Cloud Netflix Spring Cloud Netflix 是 Spring Cloud 的核心模塊之一&#xff0c;它集成了 Netflix 的多個開源組件&#xff0c;提供了微服務架構中常見的功能&#xff0c;如服務注冊與發現、配置中心、API 網關…

【VPX3U】國產嵌入式平臺:RK3588J×JH930硬件架構與紅外應用方案

隨著對邊緣計算與多媒體處理需求的提升&#xff0c;國產異構平臺成為關鍵發展方向。最近有一個項目需求&#xff0c;提出了一款基于瑞芯微 RK3588J 處理器與景嘉微GPU 的 VPX3U 規格嵌入式主板的設計想法旨在融合高性能異構計算與豐富的視頻、網絡和存儲接口&#xff0c;適用于…

秩序密碼-用群論分析魔方的階

三階魔方的物理基礎是由一個三維十字軸連接的 6 個中心塊&#xff0c;這 6 個中心塊決定了魔方的 6 種顏色朝向&#xff0c;構成不動的坐標系統&#xff0c;此外還有兩類活動塊&#xff0c;分別是8個角塊&#xff0c;12個棱塊。 魔方的每一層轉動&#xff08;如 R: 右層順時針…

Python驅動自動駕駛的“多眼”——打造高效傳感器融合框架的實戰思考

Python驅動自動駕駛的“多眼”——打造高效傳感器融合框架的實戰思考 最近,自動駕駛行業火得不行,背后支撐它的技術,遠不止車載攝像頭那么簡單。真正讓車“看懂”世界的,是多種傳感器數據的“融合”,包括雷達、激光雷達(LiDAR)、攝像頭、慣性測量單元(IMU)等等。 而如…

機器學習-- 聚類

什么是聚類&#xff1f; Clustering 可以簡單地說&#xff0c;對有標注的數據分類&#xff0c;就是邏輯回歸&#xff08;屬于有監督分類&#xff09;&#xff0c;對無標注的數據分類&#xff0c;就是聚類&#xff08;屬于無監督分類&#xff09; 聚類是一種無監督學習技術&am…

【Yonghong 企業日常問題08 】永洪BI的Apache Tomcat版本升級指南

文章目錄 前言操作步驟登錄驗證 前言 某公司業務永洪BI系統使用tomcat 9.0.97版本&#xff0c;接到總公司漏洞掃描整改要求需要將tomcat版本升級到9.0.97以上。 目標&#xff1a;tomcat 9.0.97》 9.0.98 1、下載tomcat所需要的版本 地址:https://tomcat.apache.org/download-…

BigFoot RaidSlackCheck11.109.zip lua

BigFoot RaidSlackCheck11.109.zip lua 合劑buff檢查插件 把lua腳本拷貝到游戲插件目錄下&#xff1a; D:\Battle.net\World of Warcraft\_classic_\Interface\AddOns 命令 /rsc 下載地址&#xff1a; https://download.csdn.net/download/spencer_tseng/91181827

深入解析前端 Meta 標簽:HTML 的隱形守護者與功能大師

在構建現代網頁時&#xff0c;我們常常關注炫目的視覺效果、復雜的交互邏輯或強大的框架&#xff0c;卻容易忽略那些深藏于 <head> 之中、看似不起眼的 <meta> 標簽。這些標簽如同網頁的隱形守護者&#xff0c;無聲地承擔著定義文檔元數據、指導瀏覽器行為、優化搜…

青少年編程與數學 01-012 通用應用軟件簡介 11 應用商店

青少年編程與數學 01-012 通用應用軟件簡介 11 應用商店 一、什么是應用商店&#xff08;一&#xff09;應用商店的基本定義&#xff08;二&#xff09;應用商店的工作原理&#xff08;三&#xff09;應用商店的類型 二、應用商店的重要意義&#xff08;一&#xff09;為用戶提…

《紅黑樹實現》

引言&#xff1a; 上次我們學習了比二叉搜索樹更高效的平衡二叉搜索樹&#xff08;AVL樹&#xff09;&#xff0c;這次我們要學習的是另外一種對二叉搜索樹的優化后的紅黑樹。 一&#xff1a;紅黑樹概念&#xff1a; 紅黑樹是一棵二叉搜索樹&#xff0c;他的每個結點增加一個…

領域驅動設計(DDD)【23】之泛化:從概念到實踐

文章目錄 一 泛化基礎&#xff1a;理解DDD中的核心抽象機制1.1 什么是泛化&#xff1f;1.2 為什么泛化在DDD中重要&#xff1f;1.3 泛化與特化的雙向關系 二 DDD中泛化的實現形式2.0 實現形式概覽2.1 類繼承&#xff1a;最直接的泛化實現2.2 接口實現&#xff1a;更靈活的泛化方…

機箱流動空氣熱學仿真方案

機箱流動空氣熱學仿真方案(二維平面與三維) 一、物理模型與數學模型 1. 控制方程 流動與傳熱基本方程: 連續性方程:?(ρu) = 0動量方程(Navier-Stokes):ρ(u?)u = -?p + μ?u + F能量方程:ρc?(u?)T = k?T + Φ邊界條件: 入口:速度入口(u=u?, T=T?)出口:壓…