深度模型壓縮論文(01)- Meta Filter Pruning to Accelerate Deep Convolutional Neural Networks

文章目錄

    • 1.摘要和介紹
      • 1.1摘要部分
    • 2.背景和方法
      • 2.1 背景
      • 2.2 貢獻
      • 2.3 方法
    • 3.實驗和結果
      • 3.1 實驗
      • 3.2 結果
    • 4.總結和展望
      • 4.1 總結
      • 4.2 展望

本系列是在閱讀深度神經網絡模型小型化方面論文時的筆記!內容大部分從論文中摘取,也會有部分自己理解,有錯誤的地方還望大家批評指出!

論文鏈接:Meta Filter Pruning to Accelerate Deep Convolutional Neural Networks

1.摘要和介紹

1.1摘要部分

原文摘要:
Existing methods usually utilize pre-defined criterions, such as ‘ p-norm, to prune unimportant filters. There are
two major limitations in these methods. First, the relations of the filters are largely ignored. The filters usually work
jointly to make an accurate prediction in a collaborative way. Similar filters will have equivalent effects on the network prediction, and the redundant filters can be further pruned. Second, the pruning criterion remains unchanged during training. As the network updated at each iteration, the filter distribution also changes continuously. The pruning criterions should also be adaptively switched.
傳統的通道裁剪方法都是需要預先定義通道的裁剪準則,然后使用該一成不變的準則對網絡進行裁剪,而其中使用的是裁剪準則是不考慮通道之間的相關性,如:lp_norm。該方法存在下面兩個問題:1)沒有考慮網絡中不同通道之間的相關性。一般而言,相關性大的兩個通道就可以裁剪掉其中的一個。2)沒有考慮網絡更新過程中狀態的改變。應該使用自適應的通道裁剪準則。
In this paper, we propose Meta Filter Pruning (MFP) to solve the above problems. First, as a complement to the existing ‘p-norm criterion, we introduce a new pruning criterion considering the filter relation via filter distance.
Additionally, we build a meta pruning framework for filter pruning, so that our method could adaptively select the most appropriate pruning criterion as the filter distribution changes. Experiments validate our approach on two image classification benchmarks. Notably, on ILSVRC-2012, our MFP reduces more than 50% FLOPs on ResNet-50 withonly 0.44% top-5 accuracy loss.
文章提出了一種基于元學習的通道刪除方法。主要是改進了上面提出的另個問題。其中為了解決第一個問題,提出了兩種用于度量兩個不同通道之間的相關性的方法,并將其作為新的通道裁剪準則,與常用lp_norm準則一起構成裁剪準則候選集合;為了解決第二個問題,提出了一種基于元學習的自動選擇合適的通道裁剪準則框架,其在每一個epoch中會根據當前網絡的狀態,自動從通道裁剪集合中選擇合適的裁剪準則。最終,本文實現了在ILSVRC-2012數據集上,對模型resnet50裁剪50%的flops,得到0.44%的top_5的精度。

2.背景和方法

2.1 背景

  • 為了在計算資源有限的平臺上(手機等終端設備)上使用深度神經網絡模型,對模型的裁剪是必須的。其中對模型的裁剪分為:權重的裁剪(weight pruning)和卷積通道( filter pruning)的裁剪。其中前者是對神經元進行裁剪,而后者是將整個通道都刪除了。前者因為得到的是非結構化稀疏(unstructured sparsity)無發很好的利用基本線性代數子程序庫(BLAS)進行加速,所以意義不是很大,所以大家基本上都是研究通道級別的裁剪,因為其得到的是結構化的稀疏( structured sparsity)。
    在這里插入圖片描述
  • 在過去的工作中,裁剪的準則主要分為兩種:1)系數值越小則越不重要(smaller-norm-less-important),即:如果某個通道的卷積系數或者BN層的稀疏比較小,那么該通道對于結果貢獻就不大,可以刪除。所以,該類方法大多采用正則化的方法使得模型的系數稀疏化,從而達到裁剪通道的目的。但是該方法沒有考慮到通道之間的相關性。2)基于通道之間的相關性(Relational Criterion),相關性越大的兩個通道,則必定有一個是冗余的。采用的方法是使用幾何均值篩選中模型中最不重要的通道,因為越是接近集合均值的通道這說明和剩下的通道相關性越大,則可以被刪除。
  • 傳統的通道裁剪存在以下兩個問題:1)通道之間的相關性度量方法嘗試太少;2)由于通道的裁剪,模型中卷積核的參數分布是動態變換的,所以固定不變的通道裁剪準則是不是不太合適。

2.2 貢獻

  • 提出了兩種新的通道相關性度量的方法
  • 提出了基于元學習的通道裁剪準則自適應變換框架,從而盡可能的降低裁剪前后模型之前的loss差異
  • 在常用的數據集:cifar10和ImageNet上對常用的模型(resnet , vggnet等)進行試驗,得到的實驗記過非常好。

2.3 方法

在這里插入圖片描述

  • 在每一個epoch過程中,分別會根據lp_norm準則和distace_norm準則,對網絡中所有的通道進行排序,然后通過元學習的方法篩選出適合當前狀態的通道裁剪準則,并按照該準則的分數對模型進行裁剪。
  • 其中距離準則下使用了Minkowski Distance和Cosine Distance,并通過計算當前通道與剩下所有通道之間距離之和然后再求平均得到的值表示該通道的相關性分數,分數越大則表示通道越重要。
  • lp_norm準則下,使用的是l1和l2正則化來產生稀疏性,然后計算當前通道參數的1范數或者2范數作為通道重要性的分數,分數越大,則通道越重要。
  • 文章的優化目標是降低模型裁剪前后元屬性,其中元屬性可以為:sparsity level κ, the mean value of weights,
    top-5 loss, top-1 loss等。

3.實驗和結果

3.1 實驗

  • 數據集:CIFAR-10 , ILSVRC-2012
  • 模型: ResNet , VGGNet
  • 每個實驗重復三次,并對結果取均值和方差
  • Minkowski distance with p = 1; 2 cosine distance

3.2 結果

在這里插入圖片描述
在這里插入圖片描述
在這里插入圖片描述
在這里插入圖片描述

  • 通過上面的實驗結果可以看出,無論是在resnet模型還是vggnet模型,在數據集cifar10和imgnet上的結果都比其他方法要好,即:更大的裁剪量可以得到更好的模型
  • 在裁剪量小于40%的時候,在resnet-100,數據集cifar10上,得到的裁剪后的模型精度比未裁剪的要好。
  • This means the performance of our framework is not sensitive to the pruning interval
  • we find that during the early training process, the distance-based criteria are adopted less than norm-based criteria

4.總結和展望

4.1 總結

  • 本文的方法不僅使用基于系數大小的裁剪準則,還使用了基于相關性的裁剪準則,使得結果更好
  • 本文提出了一種基于元學習的自適應選取裁剪準則的框架,可以在每個epoch下,更根據模型的狀態選擇合適的裁剪專責。
  • MFP achieves comparable performance with state-of-theart methods in several benchmarks.

4.2 展望

  • 目前裁剪準則的查找是在epoch級別上,未來可以考慮將其做在層上。
  • 可以嘗試更多的元屬性。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/445135.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/445135.shtml
英文地址,請注明出處:http://en.pswp.cn/news/445135.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

架構分享--微博架構

先來分享下大神Tim Yang的關于微博的架構設計: 這里主要從 存儲和接口角度來講 對于大流量系統的架構設計,對于寫入方面是特別需要注意的,基本上現在遇到的系統都是對于主數據庫的寫入,然后對于從數據庫實現流量的分發。 對于存…

Pytorch(7)-自己設計神經網絡會遇到的問題

操作pytorch架構遇到的問題1.網絡參數初始化2.查看當前可學習參數3.增加可學習的參數4.參數優化函數Adagrad5.直接修改網絡梯度值6.optimizers.zero_grad()報錯7.tensor.detach() 和 tensor.data 的區別1.網絡參數初始化 在pytorch中,有自己默認初始化參數方式&…

Python里的OS模塊常用函數說明

Python的標準庫中的os模塊包含普遍的操作系統功能。如果你希望你的程序能夠與平臺無關的話,這個模塊是尤為重要的。即它允許一個程序在編寫后不需要任何改動,也不會發生任何問題,就可以在Linux和Windows下運行。 下面列出了一些在os模塊中比較…

深度模型壓縮論文(03)- Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self

文章目錄1.摘要和背景1.1 摘要1.2 背景2.方法和貢獻2.1 方法2.1.1 訓練過程2.1.2 loss介紹2.2 貢獻3.實驗和結果3.1 實驗3.2 結果4.總結和展望4.1 總結4.2 展望主要貢獻:基于網絡蒸餾方法,提出了一種提升裁剪后模型的精度的方法!將訓練時間大…

關系數據庫——基礎

數據庫系統概論 四個基本概念 數據:數據庫中存儲的基本對象,描述一個事物的符號記錄,數據和其語義不可分開說 數據庫(DB):是長期儲存在計算機內、有組織的、可共享的大量數據的集合。 數據庫管理系統&a…

Python(27)-模塊

模塊、包1.模塊導入的方式2.使用as給模塊取一個別名(大駝峰命名法)3.從模塊中導入部分工具4.從模塊中導入全部工具5.模塊搜索順序6__name__7.包8.發布模塊、安裝模塊、卸載包9.pip安裝第三方模塊本系列博文來自學習《Python基礎視頻教程》筆記整理&#…

Wow6432Node

64 位版本 Windows 中的注冊表分為 32 位注冊表項和 64 位注冊表項。許多 32 位注冊表項與其相應的 64 位注冊表項同名,反之亦然。 64 位版本 Windows 包含的默認 64 位版本注冊表編輯器 (Regedit.exe) 可顯示 64 位和 32 位的 注冊表項。WOW64 注冊表重定向器為 32 位程序提供…

如何使用docker配置深度學習開發環境

文章目錄1.底層驅動的安裝1.1 操作系統的安裝1.2 顯卡驅動的安裝1.3 cuda的安裝2.使用docker配置深度學習開發環境2.1 docker的安裝2.2 nvidia_docker的安裝2.3 安裝過程中的問題2.3.1 docker和nvidia_docker的版本不匹配的問題。2.3.2 解決每次運行docker命令的時候要加sudo.2…

反射全解

反射的概念 反射的引入: Object obj new Student(); 若程序運行時接收到外部傳入的一個對象,該對象的編譯類型是Object,但程序又需要調用該對象運行類型的方法: 1.若編譯和運行類型都知道,使用 instanceof判斷后&…

MachineLearning(4)-核函數與再生核希爾伯特空間

核函數與再生核希爾伯特空間1.支持向量積-核函數2.一個函數為核函數的條件3.核函數與希爾伯特空間3.1希爾伯特空間-Hilbert空間1.支持向量積-核函數 核(kernel)的概念由Aizenman et al.于1964年引入模式識別領域,原文介紹的是勢函數的方法。在那之后,核…

CRegKey 注冊表操作

1.簡介 CRegKey提供了對系統注冊表的操作方法,通過CRegKey類,可以方便的打開注冊表的某個分支或子鍵(CRegKey::Open),可以方便的修改一個鍵的鍵值(CRegKey::SetValue),也可以查詢某…

進程基礎

進程的基本概念 程序順序執行的特征: 1)順序性:處理機嚴格按照程序所規定的順序執行,每一步操作必須在下一步操作開始前執行 2)封閉性:程序在封閉的環境下運行,程序獨占資源,資源的狀…

用Docker容器自帶的tensorflow serving部署模型對外服務

相信很多人和我一樣,在試圖安裝tensorflow serving的時候,翻遍了網上的博客和官網文檔,安裝都是以失敗而告終,我也是一樣,這個問題折磨了我兩個星期之久,都快放棄了。幸運的是在同事的建議下,我…

C資源

云風最近寫了一篇博客《C語言的前世今生》。作為長期使用C語言開發網絡游戲服務器的程序員,云風是有理由寫這樣一篇文字,不過還是感覺談的不夠深入,C語言在業界使用的現狀沒有怎么描寫,有些意猶未盡。在這里想比較系統的談談個人對…

學點數學(2)-特征函數

特征函數1.數列特征方程2.矩陣特征方程3.微分方程特征方程4.積分方程特征方程特征方程是為研究相應的數學對象而引入的一些等式,這些等式描述了特定對象的特性。依據研究的對象不同,特征方程包括數列特征方程、矩陣特征方程、微分方程特征方程、積分方程…

GCC如何產生core dump

先決條件1.安裝apport(automatically generate crash reports for debugging)2.修改/etc/security/limits.conf文件,使允許core dump,或者用ulimit -c unlimited設置core dump文件的大小為unlimited3.C/C的編譯開關-g(…

經典的進程同步問題

經典的進程同步問題 普通版:一類進程作為生產者,生產產品,生產的產品放入一個緩沖區,消費者從緩沖區中取出產品,需要保證生產者不可以向滿的緩沖區中添加產品,消費者不可以從空的緩沖區中取出產品。同一時刻…

面試題匯總---深度學習(圖像識別,NLP內容)

文章目錄1.基本概念1.1 為什么神經網絡中深度網絡的表現比廣度網絡表現好?1.2 推導BP算法1.3 什么是梯度消失和梯度爆炸?1.4 常用的激活函數有哪些?1.5 常用的參數更新方法有哪些?1.6 解決過擬合的方法?數據層面模型層…

Linux-2.6.25 TCPIP函數調用大致流程

Linux-2.6.25 TCPIP函數調用大致流程學習目的,隨手筆記。函數和文字說明會不斷補充更新。Changelog2008.10.08 最近找工作忙。暫時緩緩插口層系統調用sendsys_sendsys_sendtosendtosys_sendtosock_sendmsgsendmsgsys_sendmsgsock_sendmsgwritesys_writevfs_write…

Python(28)-文件,os模塊

文件1. 文件2. 文件的基本操作3. 讀取文件open()3.1 文件指針: 標記從哪一個位置開始讀取數據.3.2 文件的打開方式mode3.3 文件按行讀取3.3.1 readline()3.3.2 readlines()4.文件輸出f.write(),print()5.文件復制5.1 小文件復制(搬家)5.2 大文件復制&…