PRML(4)--Chapter2(下)-非參數估計

PRML第二章下-非參數估計

  • 1.直方圖
  • 2. 核方法
  • 3. K近鄰

概率密度建模-參數化方法-概率密度的形式一定,由數據集確定密度中的參數即可。

局限性–概率模型選的不對,不能夠描述數據模態

此時,介紹一下非參數方法–直方圖,核方法, K緊鄰

1.直方圖

直方圖–密度估計–每個直方處密度,nin_ini?該直方內的樣本數,N總樣本數,Δ\DeltaΔ該直方寬度
pi=niNΔip_i=\frac{n_i}{N\Delta_i}pi?=NΔi?ni??

缺點:

  1. 在直方交界處概率密度不連續
  2. D維變量,每個維度都劃分成MMM維度,將會有MDM^DMD個箱子。

估計某個特定位置的概率密度,應該考慮位于那個點的某個鄰域內的數據點。
某個點處的概率密度–K 鄰域內樣本數,NNN總樣本數,VVV鄰域半徑:
p(x)=KNVp(x)=\frac{K}{NV}p(x)=NVK?

2. 核方法

固定鄰域大小,計算鄰域內樣本數K。

Parzen 窗核函數密度估計(在窗中的才算):
p(x)=1N∑n=1N1hDk(x?xnh)p(x)=\frac{1}{N}\sum_{n=1}^N\frac{1}{h^D}k(\frac{x-x_n}{h})p(x)=N1?n=1N?hD1?k(hx?xn??)

高斯核密度估計(所有樣本都算):
p(x)=1N∑n=1N1(2πh2)D2exp??∣∣x?xn∣∣22h2p(x)=\frac{1}{N}\sum_{n=1}^N\frac{1}{(2\pi h^2)^{\frac{D}{2}}}\exp{-\frac{||x-x_n||^2}{2h^2}}p(x)=N1?n=1N?(2πh2)2D?1?exp?2h2x?xn?2?

3. K近鄰

固定鄰域內樣本數K,計算包含K個樣本鄰域體積。

由K近鄰方法導出的K-NN 分類器。
數據集NkN_kNk?個樣本屬于類別CkC_kCk?,數據總數為NNN,如果想對數據xxx分類;以x為中心的球體中包含CkC_kCk?類樣本KkK_kKk?個,x 與每個類別關聯的概率:
p(x∣Ck)=KkVNkp(x|C_k)=\frac{K_k}{VN_k}p(xCk?)=VNk?Kk??
類別先驗:
p(Ck)=NkNp(C_k)=\frac{N_k}{N}p(Ck?)=NNk??

x的后驗概率:
p(ck∣x)=p(x,Ck)p(x)=KkVNkNkNKVN=KkKp(c_k|x)=\frac{p(x,C_k)}{p(x)}=\frac{\frac{K_k}{VN_k}\frac{N_k}{N}}{\frac{K}{VN}}=\frac{K_k}{K}p(ck?x)=p(x)p(x,Ck?)?=VNK?VNk?Kk??NNk???=KKk??

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/444703.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/444703.shtml
英文地址,請注明出處:http://en.pswp.cn/news/444703.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

《盤點那些秀你一臉的秒天秒地算法》(1)

本系列堅持格式:1個抖機靈算法2個較簡單但是天秀的算法1個較難天秀算法。 bogo排序 Bogo排序(Bogo-sort),又被稱為猴子排序,是一種惡搞排序算法。 將元素隨機打亂,然后檢查其是否符合排列順序,若否,則繼續…

caffe安裝篇(一)

caffe我選擇使用ubuntu源碼安裝,所以先執行: sudo apt-get install -y libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libboost-all-dev protobuf-compiler libhdf5-serial-dev sudo apt-get install -y libgflags-dev libgoogle-glog-dev liblmdb-dev prot…

caffe2安裝篇(三)通過docker安裝

用普通的安裝方式走了不少彎路,感覺還是用docker方便: 參考的是https://hub.docker.com/r/caffe2ai/caffe2/ Latest docker pull caffe2ai/caffe2 Comes with GPU support, CUDA 8.0, cuDNN 7, all options, and tutorial files. Uses Caffe2 v0.8.1. GPU images (for us…

《盤點那些秀你一臉的秒天秒地算法》(3)

斐波那契之美 斐波那契數列(Fibonacci sequence),又稱黃金分割數列、因數學家列昂納多斐波那契(Leonardoda Fibonacci)以兔子繁殖為例子而引入,故又稱為“兔子數列”。 這個數列就是1、1、2、3、5、8、13…

Linux(15)-

Linux下的編程開發

《盤點那些秀你一臉的秒天秒地算法》(4)

防止新手錯誤的神級代碼 #define ture true #define flase false #difine viod void #define mian main #define ; ; 以后有新手問題就把這幾行代碼給他就好啦。 不用額外空間交換兩個變量 a 5 b 8 #計算a和b兩個點到原點的距離之和,并且賦值給…

Linux(16)-

Vim編輯器的使用

php生成有復雜結構的excel文檔

以前都用PHPExcel等工具來生成Excel,但是我們有時候需要非常復雜的樣式,比如有合并單元格和拆分單元格,甚至有顏色,行間距之類的,這樣做起來很費勁,而且你如果使用插件,你也需要學習這里我們可以…

caffe2安裝篇(二) ubuntu16.04 安裝方法

caffe2 ubuntu16.04 安裝方法 Caffe2的安裝相比于caffe在安裝的時候更加簡便,略去了Makefile.config的各種配置,對于有無GPU以及各種可選庫例如opencv,anaconda的支持也更簡單。(其實你直接裝好庫以后make就好,以GPU為例,在make的時候,自動檢測你是否安裝了CUDA,若沒有…

為啥用redis解決會話呢?

什么是會話? 會話可簡單理解為:用戶開一個瀏覽器,點擊多個超鏈接,訪問服務器多個web資源,然后關閉瀏覽器,整個過程稱之為一個會話。 ?會話過程中要解決的一些問題? –每個用戶不可避免各自會…

推薦系統(5)-深度推薦模型-AutoRec、DeepCrossing、NeuralCF、PNN、WideDeep、FNN、DeepFM、NFM

GBDTLR1. AutoRec-20152. Deep Crossing-20163. NeuralCF-20164. PNN-20165. Wide&Deep-20166. Deep&Cross-20177.FM深度學習7.1 FNN-20167.2 DeepFM-20177.3 NFM-2017《深度學習/推薦系統》讀書筆記2016年開始,推薦系統和計算廣告全面進入深度學習時代。 &…

關于在安裝caffe2環境中遇到的坑整理(歡迎入坑討論)

1.ImportError: cannot import name caffe2_pb2 測試caffe2的pytorch環境是否正常的時候使用 root@lxsj-ThinkStation:~/pytorch# python Python 2.7.12 (default, Dec 4 2017, 14:50:18) [GCC 5.4.0 20160609] on linux2 Type "help", "copyright", &…

leetcode172. 階乘后的零 最快算法

給定一個整數 n,返回 n! 結果尾數中零的數量。 示例 1: 輸入: 3 輸出: 0 解釋: 3! 6, 尾數中沒有零。 示例 2: 輸入: 5 輸出: 1 解釋: 5! 120, 尾數中有 1 個零. 說明: 你算法的時間復雜度應為 O(log n) 。 思路:102*5,而因數中2一定比…

Win10 連接 Ubuntu16.04.3(通過Xdrp連接xfce4界面)

Win10 連接 Ubuntu16.04.3(通過Xdrp連接xfce4界面) sudo apt-get install xrdp sudo apt-get install vnc4server sudo apt-get install xubuntu-desktop echo "xfce4-session" >~/.xsession sudo apt-get install dconf editor sudo dconf editor(或者在搜索…

Linux(17)-

Make編譯機制,Configure

聽說你還在糾結自己沒訪問量?成不了“博客專家”?

一、提高瀏覽量的技巧 相信很多人都這么想過:“我文章寫的這么好,怎么就沒人看呢?”; 或者這樣想過:“這文章寫得明明比我爛很多,憑什么這么多瀏覽量?”; 雖然在我看來這是極其嚴…

推薦系統(6)-注意力機制+深度推薦模型、強化學習推薦系統

注意力機制深度推薦模型、強化學習推薦系統1.AFM -20172.DIN-20173.DIEN-20194. DRN-20181.AFM -2017 Attention factorization machines–浙江大學–基于模型結構的改進 引入注意力機制FM, 可視為NFM模型的改進。給特征交叉池化后的特征向量施加不同的注意力權重。…

Caffe安裝的坑整理

怎么說了,入了深度學習的坑,就要踩一踩才算你入門,這里我整理了我在安裝學習caffe自己遇到的坑: 1.Caffe-GPU編譯問題:nvcc fatal : Unsupported gpu architecture compute_20 仔細查看了一下 Makefile.config 中 CUDA_ARCH 設置未按規定設置: # CUDA architecture se…

leetcode74. 搜索二維矩陣 ,你見過嗎

編寫一個高效的算法來判斷 m x n 矩陣中,是否存在一個目標值。該矩陣具有如下特性: 每行中的整數從左到右按升序排列。 每行的第一個整數大于前一行的最后一個整數。 示例 1: 輸入: matrix [ [1, 3, 5, 7], [10, 11, 16, 20], [23, 30, 34,…

pytorch學習 入門篇(一)

PyTorch 是什么? 它是一個基于 Python 的科學計算包, 其主要是為了解決兩類場景: NumPy 的替代品, 以使用 GPU 的強大加速功能一個深度學習研究平臺, 提供最大的靈活性和速度Tensors(張量) Tensors 與 NumPy 的 ndarrays 非常相似, 除此之外還可以在 GPU 上使用張量來加速…