sklearn中SVM調參說明

寫在前面

之前只停留在理論上,沒有實際沉下心去調參,實際去做了后,發現調參是個大工程(玄學)。于是這篇來總結一下sklearn中svm的參數說明以及調參經驗。方便以后查詢和回憶。

常用核函數

1.linear核函數:

K(xi,xj)=xTixjK(xi,xj)=xiTxj



2.polynomial核函數:

K(xi,xj)=(γxTixj+r)d,d>1K(xi,xj)=(γxiTxj+r)d,d>1


3.RBF核函數(高斯核函數):

K(xi,xj)=exp(?γ||xi?xj||2),γ>0K(xi,xj)=exp(?γ||xi?xj||2),γ>0


4.sigmoid核函數:

K(xi,xj)=tanh(γxTixj+r),γ>0,r<0K(xi,xj)=tanh(γxiTxj+r),γ>0,r<0

?

sklearn svm 相關參數的官方說明

Parameters:
C?: float, optional (default=1.0). Penalty parameter C of the error term.
kernel?: string, optional (default=’rbf’). Specifies the kernel type to be used in the algorithm. It must be one of ‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’ or a callable. If none is given, ‘rbf’ will be used. If a callable is given it is used to pre-compute the kernel matrix from data matrices; that matrix should be an array of shape (n_samples, n_samples).
degree?: int, optional (default=3). Degree of the polynomial kernel function (‘poly’). Ignored by all other kernels.
gamma?: float, optional (default=’auto’). Kernel coefficient for ‘rbf’, ‘poly’ and ‘sigmoid’. If gamma is ‘auto’ then 1/n_features will be used instead.
coef0?: float, optional (default=0.0). Independent term in kernel function. It is only significant in ‘poly’ and ‘sigmoid’.
probability?: boolean, optional (default=False). Whether to enable probability estimates. This must be enabled prior to calling fit, and will slow down that method.
shrinking?: boolean, optional (default=True). Whether to use the shrinking heuristic.
tol?: float, optional (default=1e-3). Tolerance for stopping criterion.
cache_size?: float, optional. Specify the size of the kernel cache (in MB).
class_weight?: {dict, ‘balanced’}, optional. Set the parameter C of class i to class_weight[i]C for SVC. If not given, all classes are supposed to have weight one. The “balanced” mode uses the values of y to automatically adjust weights inversely proportional to class frequencies in the input data as n_samples / (n_classesnp.bincount(y))
verbose?: bool, default: False. Enable verbose output. Note that this setting takes advantage of a per-process runtime setting in libsvm that, if enabled, may not work properly in a multithreaded context.
max_iter?: int, optional (default=-1). Hard limit on iterations within solver, or -1 for no limit.
decision_function_shape?: ‘ovo’, ‘ovr’ or None, default=None. Whether to return a one-vs-rest (‘ovr’) decision function of shape (n_samples, n_classes) as all other classifiers, or the original one-vs-one (‘ovo’) decision function of libsvm which has shape (n_samples, n_classes * (n_classes - 1) / 2). The default of None will currently behave as ‘ovo’ for backward compatibility and raise a deprecation warning, but will change ‘ovr’ in 0.19.
New in version 0.17: decision_function_shape=’ovr’ is recommended.
Changed in version 0.17: Deprecated decision_function_shape=’ovo’ and None.
random_state?: int seed, RandomState instance, or None (default). The seed of the pseudo random number generator to use when shuffling the data for probability estimation.

libsvm中參數說明

因為sklearn底層是調用libsvm的,因此sklearn中svm參數說明是可以直接參考libsvm中的。

1.linear核函數:

K(xi,xj)=xTixjK(xi,xj)=xiTxj


2.polynomial核函數:

K(xi,xj)=(γxTixj+r)d,d>1K(xi,xj)=(γxiTxj+r)d,d>1


3.RBF核函數(高斯核函數):

K(xi,xj)=exp(?γ||xi?xj||2),γ>0K(xi,xj)=exp(?γ||xi?xj||2),γ>0


4.sigmoid核函數:

K(xi,xj)=tanh(γxTixj+r),γ>0,r<0K(xi,xj)=tanh(γxiTxj+r),γ>0,r<0

?

首先介紹下與核函數相對應的參數:
1)對于線性核函數,沒有專門需要設置的參數
2)對于多項式核函數,有三個參數。-d用來設置多項式核函數的最高次項次數,也就是公式中的d,默認值是3。-g用來設置核函數中的gamma參數設置,也就是公式中的gamma,默認值是1/k(特征數)。-r用來設置核函數中的coef0,也就是公式中的第二個r,默認值是0。
3)對于RBF核函數,有一個參數。-g用來設置核函數中的gamma參數設置,也就是公式中gamma,默認值是1/k(k是特征數)。
4)對于sigmoid核函數,有兩個參數。-g用來設置核函數中的gamma參數設置,也就是公式中gamma,默認值是1/k(k是特征數)。-r用來設置核函數中的coef0,也就是公式中的第二個r,默認值是0。

具體來說說rbf核函數中C和gamma?:

SVM模型有兩個非常重要的參數C與gamma。其中 C是懲罰系數,即對誤差的寬容度。c越高,說明越不能容忍出現誤差,容易過擬合。C越小,容易欠擬合。C過大或過小,泛化能力變差

gamma是選擇RBF函數作為kernel后,該函數自帶的一個參數。隱含地決定了數據映射到新的特征空間后的分布,gamma越大,支持向量越少,gamma值越小,支持向量越多。支持向量的個數影響訓練與預測的速度。

這里面大家需要注意的就是gamma的物理意義,大家提到很多的RBF的幅寬,它會影響每個支持向量對應的高斯的作用范圍,從而影響泛化性能。我的理解:如果gamma設的太大,方差會很小,方差很小的高斯分布長得又高又瘦, 會造成只會作用于支持向量樣本附近,對于未知樣本分類效果很差,存在訓練準確率可以很高,(如果讓方差無窮小,則理論上,高斯核的SVM可以擬合任何非線性數據,但容易過擬合)而測試準確率不高的可能,就是通常說的過訓練;而如果設的過小,則會造成平滑效應太大,無法在訓練集上得到特別高的準確率,也會影響測試集的準確率。

此外,可以明確的兩個結論是:
結論1:樣本數目少于特征維度并不一定會導致過擬合,這可以參考余凱老師的這句評論:
“這不是原因啊,呵呵。用RBF kernel, 系統的dimension實際上不超過樣本數,與特征維數沒有一個trivial的關系。”

結論2:RBF核應該可以得到與線性核相近的效果(按照理論,RBF核可以模擬線性核),可能好于線性核,也可能差于,但是,不應該相差太多。
當然,很多問題中,比如維度過高,或者樣本海量的情況下,大家更傾向于用線性核,因為效果相當,但是在速度和模型大小方面,線性核會有更好的表現。


Reference
http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html#sklearn.svm.SVC
http://blog.csdn.net/lqhbupt/article/details/8610443
http://blog.csdn.net/lujiandong1/article/details/46386201

轉載于:https://www.cnblogs.com/sddai/p/9696771.html

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/250611.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/250611.shtml
英文地址,請注明出處:http://en.pswp.cn/news/250611.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

TZOJ 3030 Courses(二分圖匹配)

描述 Consider a group of N students and P courses. Each student visits zero, one or more than one courses. Your task is to determine whether it is possible to form a committee of exactly P students that satisfies simultaneously the conditions: every stude…

vue --- configureWebpack模擬后臺數據

初識 使用vue/cli搭建的項目可以在vue.config.js中,模擬一個后臺(express寫法)vue.config.js configureWebpack: {devServer: {// 模擬后臺服務器 express寫法before(app) {app.get(/api/login, function(req, res) {const { username, passwd } req.query;console.log(user…

TCP和UDP的優缺點及區別

轉自&#xff1a;http://www.cnblogs.com/xiaomayizoe/p/5258754.html TCP的優點&#xff1a; 可靠&#xff0c;穩定 TCP的可靠體現在TCP在傳遞數據之前&#xff0c;會有三次握手來建立連接&#xff0c;而且在數據傳遞時&#xff0c;有確認、窗口、重傳、擁塞控制機制&#xff…

e.getMessage 為空NULL

e.getMessage 為空NULL 在日常代碼中免不了要try catch 切忌用try catch 去try 整個方法。 在對象操作之前盡量寫上if 空判斷。 反例&#xff1a; public void send(){ try{ 代碼1&#xff1a;獲取對象 代碼2&#xff1a;操作代碼1 代碼3&#xff1a;操作代碼2 代碼4&#xff1…

Linux:客戶端的實現

寫了一個簡單的服務器軟件&#xff0c;但是沒有寫客戶端。現在我將客戶端實現了&#xff0c;其實昨天已經說了客戶端的實現步驟了。 步驟&#xff1a; socket() 初始化 connet()鏈接 從標準輸入讀數據fgets() 傳數據到服務器write() 讀從服務器返回的數據read() 寫數據到屏幕上…

vue --- http攔截,登錄登出的邏輯設計

設計 在src目錄下創建一個interceptor.js登錄邏輯 設置攔截,在發起請求前,先判斷用戶是否登錄(在本栗中,即是否能夠在瀏覽器緩存中找到token). 登出邏輯 對服務端傳過來的數據進行攔截,判斷其狀態碼是否為401(未登錄或token過期)清空瀏覽器緩存中的token重定向到登入頁面 inte…

循環分支循環語句

# 三大結構 - 循環 - 分支 - 循環 . . .In [ ]:# 分支 - 分支的基本語法 - if 條件表達式&#xff1a; 語句1 語句2 語句3 ..... - 條件表達式就是計算結果必須是布爾值的表達式 - 表達式后面的冒號覺對不能少 - 注意 if 后面出現的語句&#xff0c;如果屬于 if 語句塊&…

HTTP 1.1與HTTP 1.0的比較

HTTP 1.1與HTTP 1.0的比較 一個WEB站點每天可能要接收到上百萬的用戶請求&#xff0c;為了提高系統的效率&#xff0c;HTTP 1.0規定瀏覽器與服務器只保持短暫的連接&#xff0c;瀏覽器的每次請求都需要與服務器建立一個TCP連接&#xff0c;服務器完成請求處理后立即斷開TCP連接…

vue --- 前端代理發送http請求

后端 端口在3000使用jsonwebtoken和koa-jwt生成令牌并返回對’/api/userinfo’端口,先驗證令牌是否通過,若通過返回數據 const Koa require(koa); const Router require(koa-router); // 生成令牌、驗證令牌 const jwt require(jsonwebtoken); const jwtAuth require(koa…

python全棧開發-json和pickle模塊(數據的序列化)

一、什么是序列化&#xff1f; 我們把對象(變量)從內存中變成可存儲或傳輸的過程稱之為序列化&#xff0c;在Python中叫pickling&#xff0c;在其他語言中也被稱之為serialization&#xff0c;marshalling&#xff0c;flattening等等&#xff0c;都是一個意思。 為什么要序列化…

Gale-Shapley---婚姻匹配算法算法

原文鏈接&#xff1a;http://blog.csdn.net/cscmaker/article/details/8291131 &#xff08;一&#xff09;問題的引出&#xff1a; 有N男N女&#xff0c;每個人都按照他對異性的喜歡程度排名。現在需要寫出一個算法安排這N個男的、N個女的結婚&#xff0c;要求兩個人的婚姻應該…

大數據排重

注意用來排重的那個集合放到Set中&#xff0c; 可以是HashSet,或者其他Set(推薦使用HashSet),因為Set的contains效率更高&#xff0c;比list高很多 -----------------------------------------------------------------------------------------------------------------------…

大前端成長路徑

路徑(持續更新): 以下是我不同時期的博客鏈接可以和我的GitHub共同食用大家可以對比一下,我學的過程是緩慢型的… learning: 0個月 2018年09月開始接觸前端,前端三劍客一個不知道一個不懂,于是對著W3C、菜鳥教程.一個一個敲開始啃紅寶書《JavaScript高級程序設計》(第3版) le…

工具:meson+ninja(安裝問題解決)

問題1&#xff1a;Python版本問題 報錯信息&#xff1a; NOTICE: You are using Python 3.6 which is EOL. Starting with v0.62.0, Meson will require Python 3.7 or newer ubuntu 18默認的python3是3.6. 解決方案1&#xff1a;從源碼安裝python 3.7 wget https://www.pyth…

ListMapSet的操作和遍歷

List&Map&Set的操作和遍歷 Java的三大集合即&#xff1a;Set、List、Map。 Set&#xff1a;代表無序、不可重復的集合&#xff0c;常用的有HashSet&#xff08;哈希表實現&#xff09;、TreeSet&#xff08;紅黑樹實現&#xff09;&#xff1b;List&#xff1a;代表有序…

PHP中的魔術方法

概述 在面向對象編程中&#xff0c;PHP提供了一系列的魔術方法&#xff0c;這些魔術方法為編程提供了很多便利。PHP中的魔術方法通常以__(兩個下劃線)開始&#xff0c;并且不需要顯示的調用而是由某種特定的條件出發。這篇文章簡單總結了PHP中提供的魔術方法。 開始之前 在總結…

執行caffe的draw_net.py出現“GraphViz's executable dot not found”的解決方法

執行caffe的draw_net.py出現“GraphVizs executable "dot" not found”的解決方法 控制臺輸入如下指令畫網絡圖&#xff1a;python ../../../python/draw_net.py train.prototxt train.png --rankdirTB &#xff08;Top-Bottom形式&#xff0c;縱向圖&#xff09;pyt…

配置 --- vscode自定義代碼段Snippets

目標 在vscode中輸入vbs-vue 然后產生一個自己想要的模板 寫好模板 在線上寫好模板傳送門: https://snippet-generator.app/ 1是標題,對應 2是前綴.對應在vue中使用的快捷鍵 vbs-vue3就是需要顯示的代碼段了 在vscode中配置 1.ctrlshiftp2.選擇 Preferences: Configure U…

centos6安裝composer

需要使用到curl&#xff0c;沒有的話需要 yum -y install curl ###安裝一、下載&#xff1a;curl -sS https://getcomposer.org/installer | php &#xff08;如果是網絡原因多試幾次&#xff09; 二、移動composer.phar移動到環境下讓其變成可執行&#xff1a;mv compose…

透明圖與元素居中

1,定位讓元素居中 1. 透明度 opacity 默認值是1 不透明 0是全透明轉載于:https://www.cnblogs.com/Shinigami/p/9709382.html