深度學習之 SSD(Single Shot MultiBox Detector)

目標檢測近年來已經取得了很重要的進展,主流的算法主要分為兩個類型:

(1)two-stage方法,如R-CNN系算法,其主要思路是先通過啟發式方法(selective search)或者CNN網絡(RPN)產生一系列稀疏的候選框,然后對這些候選框進行分類與回歸,two-stage方法的優勢是準確度高;
(2)one-stage方法,如Yolo和SSD,其主要思路是均勻地在圖片的不同位置進行密集抽樣,抽樣時可以采用不同尺度和長寬比,然后利用CNN提取特征后直接進行分類與回歸,整個過程只需要一步,所以其優勢是速度快,但是均勻的密集采樣的一個重要缺點是訓練比較困難,這主要是因為正樣本與負樣本(背景)極其不均衡(參見 Focal Loss),導致模型準確度稍低。不同算法的性能如圖1所示,可以看到兩類方法在準確度和速度上的差異。

在這里插入圖片描述

圖1 不同檢測算法的性能對比

本文講解的是SSD算法,英文名Single Shot MultiBox Detector。Single shot指明了SSD算法屬于one-stage方法,MultiBox指明了SSD是多框預測。從圖1也可以看到,SSD算法在準確度和速度(除了SSD512)上都比Yolo要好很多。圖2給出了不同算法的基本框架圖,對于Faster R-CNN,其先通過CNN得到候選框,然后再進行分類與回歸,而Yolo與SSD可以一步到位完成檢測。相比Yolo,SSD采用CNN來直接進行檢測,而不是像Yolo那樣在全連接層之后做檢測。其實采用卷積直接做檢測只是SSD相比Yolo的其中一個不同點,另外還有兩個重要的改變,一是SSD提取了不同尺度的特征圖來做檢測,大尺度特征圖(較靠前的特征圖)可以用來檢測小物體,而小尺度特征圖(較靠后的特征圖)用來檢測大物體;二是SSD采用了不同尺度和長寬比的先驗框(Prior boxes, Default boxes,在Faster R-CNN中叫做錨,Anchors)。Yolo算法缺點是難以檢測小目標,而且定位不準,但是這幾點重要改進使得SSD在一定程度上克服這些缺點。下面我們詳細講解SDD算法的原理,并最后給出如何用TensorFlow實現SSD算法。
在這里插入圖片描述

圖2 不同算法的基本框架圖

設計理念

SSD 和 Yolo 一樣都是采用一個CNN網絡來進行檢測,但是卻采用了多尺度的特征圖,其基本架構如圖3所示。下面將SSD核心設計理念總結為以下三點:
在這里插入圖片描述

圖3 SSD基本框架

(1)采用多尺度特征圖用于檢測

所謂多尺度大小不同的特征圖指,CNN網絡一般前面的特征圖比較大,后面會逐漸采用stride=2的卷積或者pool來降低特征圖大小,這正如圖3所示,一個比較大的特征圖和一個比較小的特征圖,它們都用來做檢測。這樣做的好處是比較大的特征圖來用來檢測相對較小的目標,而小的特征圖負責檢測大目標,如圖4所示,8x8的特征圖可以劃分更多的單元,但是其每個單元的先驗框尺度比較小。

圖4 不同尺度的特征圖

(2)采用卷積進行檢測

與Yolo最后采用全連接層不同,SSD 直接采用卷積對不同的特征圖來進行提取檢測結果。對于形狀為 m?n?pm*n*pm?n?p 的特征圖,只需要采用 3?3?p3*3*p3?3?p 的特征圖,這樣比較小的卷積核得到檢測值。

(3)設置先驗框

在Yolo中,每個單元預測多個邊界框,但是其都是相對這個單元本身(正方塊),但是真實目標的形狀是多變的,Yolo需要在訓練過程中自適應目標的形狀。而SSD借鑒了Faster R-CNN中anchor的理念,每個單元設置尺度或者長寬比不同的先驗框,預測的邊界框(bounding boxes)是以這些先驗框為基準的,在一定程度上減少訓練難度。一般情況下,每個單元會設置多個先驗框,其尺度和長寬比存在差異,如圖5所示,可以看到每個單元使用了4個不同的先驗框,圖片中貓和狗分別采用最適合它們形狀的先驗框來進行訓練,后面會詳細講解訓練過程中的先驗框匹配原則。
在這里插入圖片描述

圖5 SSD的先驗框

SSD的檢測值也與Yolo不太一樣。對于每個單元的每個先驗框,其都輸出一套獨立的檢測值,對應一個邊界框,主要分為兩個部分。

第一部分是各個類別的置信度或者評分,值得注意的是SSD將背景也當做了一個特殊的類別,如果檢測目標共有C個類別,SSD其實需要預測C+1個置信度值,其中第一個置信度指的是不含目標或者屬于背景的評分。后面當我們說C個個類別置信度時,請記住里面包含背景那個特殊的類別,即真實的檢測類別只有C-1個。在預測過程中,置信度最高的那個類別就是邊界框所屬的類別,特別地,當第一個置信度值最高時,表示邊界框中并不包含目標。

第二部分就是邊界框的location,包含4個值(cx,cy,w,h),分別表示邊界框的中心坐標以及寬高。但是真實預測值其實只是邊界框(grand truth 框)相對于先驗框的轉換值(paper里面說是offset,但是覺得transformation更合適,參見 R-CNN論文)。先驗框位置用 d=(dcx,dcy,dw,dh)d=(d^{cx}, d^{cy}, d^{w},d^{h})d=(dcx,dcy,dw,dh),表示,其對應邊界框用 b=(bcx,bcy,bw,bh)b=(b^{cx}, b^{cy}, b^{w},b^{h})b=(bcx,bcy,bw,bh) 表示,那么邊界框的預測值l,其實是b相對于d的轉換值:
在這里插入圖片描述

習慣上,我們稱上面這個過程為邊界框的編碼(encode),預測時,你需要反向這個過程,即進行解碼(decode),從預測值l中得到邊界框的真實位置b:
在這里插入圖片描述
然而,在SSD的Caffe源碼(https://github.com/weiliu89/caffe/tree/ssd)實現中還有trick,那就是設置variance超參數來調整檢測值,通過bool參數variance_encoded_in_target來控制兩種模式,當其為True時,表示variance被包含在預測值中,就是上面那種情況。但是如果是Fasle(大部分采用這種方式,訓練更容易?),就需要手動設置超參數variance,用來對l的4個值進行放縮,此時邊界框需要這樣解碼:
在這里插入圖片描述
綜上所述,對于一個大小 m?nm*nm?n 的特征圖,共有mn個單元,每個單元設置的先驗框數目記為k,那么每個單元共需要(c+4)k個預測值,所有的單元共需要(c+4)kmn個預測值,由于SSD采用卷積做檢測,所以就需要(c+4)k個卷積核完成這個特征圖的檢測過程。

網絡結構

SSD采用VGG16作為基礎模型,然后在VGG16的基礎上新增了卷積層來獲得更多的特征圖以用于檢測。SSD的網絡結構如圖6所示。上面是SSD模型,下面是Yolo模型,可以明顯看到SSD利用了多尺度的特征圖做檢測。模型的輸入圖片大小是 300?300300*300300?300 (還可以是 512?512512*512512?512,其與前者網絡結構沒有差別,只是最后新增一個卷積層,本文不再討論)。

圖6 SSD網絡結構

SSD 采用VGG16做基礎模型,首先VGG16是在 ILSVRC CLS-LOC 數據集預訓練。然后借鑒了DeepLab-LargeFOV,(鏈接https://export.arxiv.org/pdf/1606.00915),分別將VGG16的全連接層fc6和fc7轉換成 3?33*33?3 卷積層 conv6 和 1?11*11?1 卷積層 conv7,同時將池化層 pool 5由原來的 2?2?s22*2-s22?2?s2 變成 3?3?s13*3-s13?3?s1 (猜想是不想reduce特征圖大小),為了配合這種變化,采用了一種Atrous Algorithm,其實就是conv6采用擴展卷積或帶孔卷積(Dilation Conv,https://arxiv.org/abs/1511.07122),其在不增加參數與模型復雜度的條件下指數級擴大卷積的視野,其使用擴張率(dilation rate)參數,來表示擴張的大小,如下圖6所示,(a)是普通的 3?33*33?3 卷積,其視野就是 3?33*33?3,(b)是擴張率為2,此時視野變成 7?77*77?7,?擴張率為4時,視野擴大為 15?1515*1515?15,但是視野的特征更稀疏了。Conv6采用3?33*33?3 大小但 dilation rate=6 的擴展卷積。然后移除dropout層和fc8層,并新增一系列卷積層,在檢測數據集上做finetuing。
在這里插入圖片描述

圖7 擴展卷積(膨脹卷積)

其中VGG16中的Conv4_3層將作為用于檢測的第一個特征圖。conv4_3層特征圖大小是 38?3838*3838?38,但是該層比較靠前,其norm較大,所以在其后面增加了一個L2 Normalization層(參見ParseNet,https://arxiv.org/abs/1506.04579),以保證和后面的檢測層差異不是很大,這個和Batch Normalization層不太一樣,其僅僅是對每個像素點在channle維度做歸一化,而Batch Normalization層是在[batch_size, width, height]三個維度上做歸一化。歸一化后一般設置一個可訓練的放縮變量gamma,使用TF可以這樣簡單實現:

# l2norm (not bacth norm, spatial normalization)
def l2norm(x, scale, trainable=True, scope="L2Normalization"):n_channels = x.get_shape().as_list()[-1]l2_norm = tf.nn.l2_normalize(x, [3], epsilon=1e-12)with tf.variable_scope(scope):gamma = tf.get_variable("gamma", shape=[n_channels, ], dtype=tf.float32,initializer=tf.constant_initializer(scale),trainable=trainable)return l2_norm * gamma

從后面新增的卷積層中提取Conv7,Conv8_2,Conv9_2,Conv10_2,Conv11_2作為檢測所用的特征圖,加上Conv4_3層,共提取了6個特征圖,其大小分別是(38,38),(19,19),(10,10),(5,5),(3,3,),(1,1), 但是不同特征圖設置的先驗框數目不同(同一個特征圖上每個單元設置的先驗框是相同的,這里的數目指的是一個單元的先驗框數目)。先驗框的設置,包括尺度(或者說大小)和長寬比兩個方面。對于先驗框的尺度,其遵守一個線性遞增規則:隨著特征圖大小降低,先驗框尺度線性增加:
在這里插入圖片描述
其中m指的特征圖個數,但卻是5,因為第一層(Conv4_3層)是單獨設置的,SkS_kSk?是先驗框大小相對于圖片的比例,而SminS_{min}Smin?SmaxS_{max}Smax?表示比例的最小值與最大值,paper里面取0.2和0.9。對于第一個特征圖,其先驗框的尺度比例一般設置為Smin/2=0.1S_{min}/2=0.1Smin?/2=0.1,那么尺度為300*0.1=30。對于后面的特征圖,先驗框尺度按照上面公式線性增加,但是先將尺度比例先擴大100倍,此時增長步長為
在這里插入圖片描述
這樣各個特征圖的SkS_kSk?為20,37,54,71,88,將這些比例除以100,然后再乘以圖片大小,可以得到各個特征圖的尺度為60,111,162,213,264,這種計算方式是參考SSD的Caffe源碼。綜上,可以得到各個特征圖的先驗框尺度30,60,111,162,213,264。對于長寬比,一般選取 ar∈{1,2,3,12,13}a_r \in\{1,2,3,\frac{1}{2},\frac{1}{3}\}ar?{1,2,3,21?,31?},對于特定的長寬比,按如下公式計算先驗框的寬度與高度(后面的Sk均指的是先驗框實際尺度,而不是尺度比例):
在這里插入圖片描述
默認情況下,每個特征圖會有一個 ar=1a_r=1ar?=1 且尺度為 SkS_kSk? 的先驗框,除此之外,還會設置一個尺度為 sk′=SkSk+1{s}'_k=\sqrt{S_kS_{k+1}}sk?=Sk?Sk+1??ar=1a_r=1ar?=1 的先驗框,這樣每個特征圖都設置了兩個長寬比為1但大小不同的正方形先驗框。注意最后一個特征圖需要參考一個虛擬 Sm+1=300+105/100=315S_{m+1} = 300+105/100=315Sm+1?=300+105/100=315來計算。因此,每個特征圖一共有6個先驗框{1,2,3,12,13,1′}\{1,2,3,\frac{1}{2},\frac{1}{3},{1}'\}{1,2,3,21?,31?,1},但是在實現時,Conv4_3,Conv10_2和Conv11_2層僅使用4個先驗框,它們不使用長寬比為3,1/3的先驗框。每個單元的先驗框的中心點分布在各個單元的中心,即
在這里插入圖片描述
,其中 ∣fk∣|f_k|fk?為特征圖的大小。

得到了特征圖之后,需要對特征圖進行卷積得到檢測結果,圖7給出了一個5*5大小的特征圖的檢測過程。其中Priorbox是得到先驗框,前面已經介紹了生成規則。檢測值包含兩個部分:類別置信度和邊界框位置,各采用一次3*3卷積來進行完成。令 nkn_knk?為該特征圖所采用的先驗框數目,那么類別置信度需要的卷積核數量為nk?cn_k * cnk??c,而邊界框位置需要的卷積核數量為nk?4n_k * 4nk??4。由于每個先驗框都會預測一個邊界框,所以SSD300一共可以預測

在這里插入圖片描述

個邊界框,這是一個相當龐大的數字,所以說SSD本質上是密集采樣。

在這里插入圖片描述

圖7 基于卷積得到檢測結果

訓練過程

(1)先驗框匹配

在訓練過程中,首先要確定訓練圖片中的ground truth(真實目標)與哪個先驗框來進行匹配,與之匹配的先驗框所對應的邊界框將負責預測它。在Yolo中,ground truth的中心落在哪個單元格,該單元格中與其IOU最大的邊界框負責預測它。但是在SSD中卻完全不一樣,SSD的先驗框與ground truth的匹配原則主要有兩點。

  • 第一個原則:對于圖片中每個ground truth,找到與其IOU最大的先驗框,該先驗框與其匹配,這樣,可以保證每個ground truth一定與某個先驗框匹配。通常稱與ground truth匹配的先驗框為正樣本,反之,若一個先驗框沒有與任何ground truth進行匹配,那么該先驗框只能與背景匹配,就是負樣本。一個圖片中ground truth是非常少的, 而先驗框卻很多,如果僅按第一個原則匹配,很多先驗框會是負樣本,正負樣本極其不平衡,所以需要第二個原則。

  • 第二個原則:對于剩余的未匹配先驗框,若某個ground truth的IOU大于某個閾值(一般是0.5),那么該先驗框也與這個ground truth進行匹配。這意味著某個ground truth可能與多個先驗框匹配,這是可以的。但是反過來卻不可以,因為一個先驗框只能匹配一個ground truth,如果多個ground truth與某個先驗框IOU大于閾值,那么先驗框只與IOU最大的那個先驗框進行匹配。第二個原則一定在第一個原則之后進行,仔細考慮一下這種情況,如果某個ground truth所對應最大IOU小于閾值,并且所匹配的先驗框卻與另外一個ground truth的IOU大于閾值,那么該先驗框應該匹配誰,答案應該是前者,首先要確保某個ground truth一定有一個先驗框與之匹配。但是,這種情況我覺得基本上是不存在的。由于先驗框很多,某個ground truth的最大IOU肯定大于閾值,所以可能只實施第二個原則就可以了,這里的TensorFlow(https://github.com/xiaohu2015/SSD-Tensorflow/blob/master/nets/ssd_common.py)版本就是只實施了第二個原則,但是這里的Pytorch(https://github.com/amdegroot/ssd.pytorch/blob/master/layers/box_utils.py)兩個原則都實施了。圖8為一個匹配示意圖,其中綠色的GT是ground truth,紅色為先驗框,FP表示負樣本,TP表示正樣本。
    在這里插入圖片描述

圖8 先驗框匹配示意圖

盡管一個ground truth可以與多個先驗框匹配,但是ground truth相對先驗框還是太少了,所以負樣本相對正樣本會很多。為了保證正負樣本盡量平衡,SSD采用了hard negative mining,就是對負樣本進行抽樣,抽樣時按照置信度誤差(預測背景的置信度越小,誤差越大)進行降序排列,選取誤差的較大的top-k作為訓練的負樣本,以保證正負樣本比例接近1:3。

(2)損失函數

訓練樣本確定了,然后就是損失函數了。損失函數定義為位置誤差(locatization loss, loc)與置信度誤差(confidence loss, conf)的加權和:
在這里插入圖片描述
其中N是先驗框的正樣本數量。這里 xijp∈{1,0}x^p_{ij} \in \{1,0\}xijp?{1,0}為一個指示參數,xijpx^p_{ij}xijp?
表示第i個先驗框與第j個ground truth匹配,并且ground truth的類別為p。c為類別置信度預測值。l為先驗框的所對應邊界框的位置預測值,而g是ground truth的位置參數。對于位置誤差,其采用Smooth L1 loss,定義如下:
在這里插入圖片描述
由于的 xijpx^p_{ij}xijp?存在,所以位置誤差僅針對正樣本進行計算。值得注意的是,要先對ground truth的g進行編碼得到 g^\hat{g}g^?,因為預測值l也是編碼值,若設置variance_encoded_in_target=True,編碼時要加上variance:
在這里插入圖片描述
對于置信度誤差,其采用softmax loss:
在這里插入圖片描述
權重系數a通過交叉驗證設置為1。

(3)數據擴增

數據擴增(Data Augmentation)可以提升SSD的性能,主要采用的技術有水平翻轉(horizontal flip),隨機裁剪加顏色扭曲(random crop & color distortion),隨機采集塊域(Randomly sample a patch)(獲取小目標訓練樣本),如下圖所示:
在這里插入圖片描述

圖9 數據擴增方案

其它的訓練細節如學習速率的選擇詳見論文,這里不再贅述。

預測過程

預測過程比較簡單,對于每個預測框,首先根據類別置信度確定其類別(置信度最大者)與置信度值,并過濾掉屬于背景的預測框。然后根據置信度閾值(如0.5)過濾掉閾值較低的預測框。對于留下的預測框進行解碼,根據先驗框得到其真實的位置參數(解碼后一般還需要做clip,防止預測框位置超出圖片)。解碼之后,一般需要根據置信度進行降序排列,然后僅保留top-k(如400)個預測框。最后就是進行NMS算法,過濾掉那些重疊度較大的預測框。最后剩余的預測框就是檢測結果了。

性能評估

首先整體看一下SSD在VOC2007,VOC2012及COCO數據集上的性能,如表1所示。相比之下,SSD512的性能會更好一些。加*的表示使用了image expansion data augmentation(通過zoom out來創造小的訓練樣本)技巧來提升SSD在小目標上的檢測效果,所以性能會有所提升。
在這里插入圖片描述

表1 SSD在不同數據集上的性能

SSD與其它檢測算法的對比結果(在VOC2007數據集)如表2所示,基本可以看到,SSD與Faster R-CNN有同樣的準確度,并且與Yolo具有同樣較快地檢測速度。
在這里插入圖片描述

表2 SSD與其它檢測算法的對比結果(在VOC2007數據集)

文章還對SSD的各個trick做了更為細致的分析,表3為不同的trick組合對SSD的性能影響,從表中可以得出如下結論:

  • 數據擴增技術很重要,對于mAP的提升很大;
  • 使用不同長寬比的先驗框可以得到更好的結果;
    在這里插入圖片描述
表3 不同的trick組合對SSD的性能影響

同樣的,采用多尺度的特征圖用于檢測也是至關重要的,這可以從表4中看出:
在這里插入圖片描述

表4 多尺度特征圖對SSD的影響

TensorFlow上的實現

SSD在很多框架上都有了開源的實現,這里基于balancap的TensorFlow版本(https://github.com/balancap/SSD-Tensorflow)來實現SSD的Inference過程。這里實現的是SSD300,與paper里面不同的是,這里采用 smin=0.15,smax=0.9s_{min}=0.15, s_{max}=0.9smin?=0.15,smax?=0.9 。首先定義SSD的參數:

self.ssd_params = SSDParams(img_shape=(300, 300),   # 輸入圖片大小num_classes=21,     # 類別數+背景no_annotation_label=21,feat_layers=["block4", "block7", "block8", "block9", "block10", "block11"],   # 要進行檢測的特征圖namefeat_shapes=[(38, 38), (19, 19), (10, 10), (5, 5), (3, 3), (1, 1)],  # 特征圖大小anchor_size_bounds=[0.15, 0.90],  # 特征圖尺度范圍anchor_sizes=[(21., 45.),(45., 99.),(99., 153.),(153., 207.),(207., 261.),(261., 315.)],  # 不同特征圖的先驗框尺度(第一個值是s_k,第2個值是s_k+1)anchor_ratios=[[2, .5],[2, .5, 3, 1. / 3],[2, .5, 3, 1. / 3],[2, .5, 3, 1. / 3],[2, .5],[2, .5]], # 特征圖先驗框所采用的長寬比(每個特征圖都有2個正方形先驗框)anchor_steps=[8, 16, 32, 64, 100, 300],  # 特征圖的單元大小anchor_offset=0.5,                       # 偏移值,確定先驗框中心normalizations=[20, -1, -1, -1, -1, -1],  # l2 normprior_scaling=[0.1, 0.1, 0.2, 0.2]       # variance)

然后構建整個網絡,注意對于stride=2的conv不要使用TF自帶的padding=“same”,而是手動pad,這是為了與Caffe一致:

def _built_net(self):"""Construct the SSD net"""self.end_points = {}  # record the detection layers outputself._images = tf.placeholder(tf.float32, shape=[None, self.ssd_params.img_shape[0],self.ssd_params.img_shape[1], 3])with tf.variable_scope("ssd_300_vgg"):# original vgg layers# block 1net = conv2d(self._images, 64, 3, scope="conv1_1")net = conv2d(net, 64, 3, scope="conv1_2")self.end_points["block1"] = netnet = max_pool2d(net, 2, scope="pool1")# block 2net = conv2d(net, 128, 3, scope="conv2_1")net = conv2d(net, 128, 3, scope="conv2_2")self.end_points["block2"] = netnet = max_pool2d(net, 2, scope="pool2")# block 3net = conv2d(net, 256, 3, scope="conv3_1")net = conv2d(net, 256, 3, scope="conv3_2")net = conv2d(net, 256, 3, scope="conv3_3")self.end_points["block3"] = netnet = max_pool2d(net, 2, scope="pool3")# block 4net = conv2d(net, 512, 3, scope="conv4_1")net = conv2d(net, 512, 3, scope="conv4_2")net = conv2d(net, 512, 3, scope="conv4_3")self.end_points["block4"] = netnet = max_pool2d(net, 2, scope="pool4")# block 5net = conv2d(net, 512, 3, scope="conv5_1")net = conv2d(net, 512, 3, scope="conv5_2")net = conv2d(net, 512, 3, scope="conv5_3")self.end_points["block5"] = netprint(net)net = max_pool2d(net, 3, stride=1, scope="pool5")print(net)# additional SSD layers# block 6: use dilate convnet = conv2d(net, 1024, 3, dilation_rate=6, scope="conv6")self.end_points["block6"] = net#net = dropout(net, is_training=self.is_training)# block 7net = conv2d(net, 1024, 1, scope="conv7")self.end_points["block7"] = net# block 8net = conv2d(net, 256, 1, scope="conv8_1x1")net = conv2d(pad2d(net, 1), 512, 3, stride=2, scope="conv8_3x3",padding="valid")self.end_points["block8"] = net# block 9net = conv2d(net, 128, 1, scope="conv9_1x1")net = conv2d(pad2d(net, 1), 256, 3, stride=2, scope="conv9_3x3",padding="valid")self.end_points["block9"] = net# block 10net = conv2d(net, 128, 1, scope="conv10_1x1")net = conv2d(net, 256, 3, scope="conv10_3x3", padding="valid")self.end_points["block10"] = net# block 11net = conv2d(net, 128, 1, scope="conv11_1x1")net = conv2d(net, 256, 3, scope="conv11_3x3", padding="valid")self.end_points["block11"] = net# class and location predictionspredictions = []logits = []locations = []for i, layer in enumerate(self.ssd_params.feat_layers):cls, loc = ssd_multibox_layer(self.end_points[layer], self.ssd_params.num_classes,self.ssd_params.anchor_sizes[i],self.ssd_params.anchor_ratios[i],self.ssd_params.normalizations[i], scope=layer+"_box")predictions.append(tf.nn.softmax(cls))logits.append(cls)locations.append(loc)return predictions, logits, locations

對于特征圖的檢測,這里單獨定義了一個組合層ssd_multibox_layer,其主要是對特征圖進行兩次卷積,分別得到類別置信度與邊界框位置:

# multibox layer: get class and location predicitions from detection layer
def ssd_multibox_layer(x, num_classes, sizes, ratios, normalization=-1, scope="multibox"):pre_shape = x.get_shape().as_list()[1:-1]pre_shape = [-1] + pre_shapewith tf.variable_scope(scope):# l2 normif normalization > 0:x = l2norm(x, normalization)print(x)# numbers of anchorsn_anchors = len(sizes) + len(ratios)# location predictionsloc_pred = conv2d(x, n_anchors*4, 3, activation=None, scope="conv_loc")loc_pred = tf.reshape(loc_pred, pre_shape + [n_anchors, 4])# class predictioncls_pred = conv2d(x, n_anchors*num_classes, 3, activation=None, scope="conv_cls")cls_pred = tf.reshape(cls_pred, pre_shape + [n_anchors, num_classes])return cls_pred, loc_pred

對于先驗框,可以基于numpy生成,定義在ssd_anchors.py文件中,鏈接為https://github.com/xiaohu2015/DeepLearning_tutorials/blob/master/ObjectDetections/SSD/ssd_anchors.py。結合先驗框與檢測值,對邊界框進行過濾與解碼:

classes, scores, bboxes = self._bboxes_select(predictions, locations)

這里將得到過濾得到的邊界框,其中classes, scores, bboxes分別表示類別,置信度值以及邊界框位置。

基于訓練好的權重文件在這里下載https://pan.baidu.com/s/1snhuTsT,這里對SSD進行測試:

ssd_net = SSD()
classes, scores, bboxes = ssd_net.detections()
images = ssd_net.images()sess = tf.Session()
# Restore SSD model.
ckpt_filename = './ssd_checkpoints/ssd_vgg_300_weights.ckpt'
sess.run(tf.global_variables_initializer())
saver = tf.train.Saver()
saver.restore(sess, ckpt_filename)img = cv2.imread('./demo/dog.jpg')
img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
img_prepocessed = preprocess_image(img)   # 預處理圖片,主要是歸一化和resize
rclasses, rscores, rbboxes = sess.run([classes, scores, bboxes],feed_dict={images: img_prepocessed})
rclasses, rscores, rbboxes = process_bboxes(rclasses, rscores, rbboxes)  # 處理預測框,包括clip,sort,nmsplt_bboxes(img, rclasses, rscores, rbboxes)  # 繪制檢測結果

詳細代碼在GitHub上了,鏈接為https://github.com/xiaohu2015/DeepLearning_tutorials/tree/master/ObjectDetections/SSD,然后看一下一個自然圖片的檢測效果:
在這里插入圖片描述

如果你想實現SSD的train過程,你可以參考附錄里面的Caffe,TensorFlow以及Pytorch實現。

小結

SSD在Yolo的基礎上主要改進了三點:多尺度特征圖,利用卷積進行檢測,設置先驗框。這使得SSD在準確度上比Yolo更好,而且對于小目標檢測效果也相對好一點。由于很多實現細節都包含在源碼里面,文中有描述不準或者錯誤的地方在所難免,歡迎交流指正。

參考文獻

  1. SSD: Single Shot MultiBox Detector
  2. SSD Slide
  3. SSD Caffe
  4. SSD TensorFlow
  5. SSD Pytorch
  6. leonardoaraujosantos Artificial Inteligence online book

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/453794.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/453794.shtml
英文地址,請注明出處:http://en.pswp.cn/news/453794.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

短時程突觸可塑性(short-term synaptic plasticity)

介紹神經元的突觸可塑性一般被認為是大腦學習與記憶的分子生物學機制,它是指突觸傳遞效率增強或減弱的變化現象。若這種變化只持續數十毫秒到幾分,便稱之為短時程突觸可塑性,其中效率增強與減弱分別叫做短時程增強(short-term enh…

windows平臺下vlc編譯

轉自:http://jeremiah.blog.51cto.com/539865/114190Jeremiah剛剛工作幾個月,參與的第一個項目是與視頻監控有關,分配給我的任務就是用開源的vlc做一個自己的播放器。對于開源項目來說,搭建起編譯環境是第一步也是最重要的一步。Jeremiah在歷…

python xgboost安裝_win7 64 python2 xgboost安裝

綜述:安裝Python3 環境下的xgboost 可以通過pip install , 在網址中下載對應版本: http://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost 來進行安裝。但Python2在該網址下并沒有相應的包,所以要下載xgboost源代碼 然后編譯。很麻…

深度學習之卷積神經網絡 AlexNet

AlexNet 是 2012年ILSVRC 比賽冠軍,遠超第二名的CNN,比LeNet更深,用多層小卷積疊加來替換單個的大卷積,結構如下圖所示。 ?? 結構 預處理 原始圖片:256?256?3256*256*3256?256?3 圖像處理: 1.隨機…

jstl處理欄目與子欄目_芬頓氧化法廢水處理工程技術規范(征求意見稿)

日前,生態環境部印發《芬頓氧化法廢水處理工程技術規范(征求意見稿)》,詳情如下:各有關單位:為貫徹《中華人民共和國環境保護法》和《中華人民共和國水污染防治法》等法律法規,防治環境污染,改善環境質量&a…

深度學習之卷積神經網絡 ZF Net

ZFNet出自論文《 Visualizing and Understanding Convolutional Networks》,作者Matthew D. Zeiler和Rob Fergus——顯然ZFNet是以兩位作者名字的首字母命名的。ZFNet通常被認為是ILSVRC 2013的冠軍方法,但實際上ZFNet排在第3名,前兩名分別是…

SIP與RTP綜合應用5-RTP解包過程

RTP接收部分比較簡單(不用考慮jitterbuffer等),先從這里入手。 其實主要就3步: 1 創建一個udp,監聽一個端口,比如5200。 2 收到RTP包,送到解包程序,繼續收第 二個。 3 收齊一幀后,或保存文件&am…

JavaScript eval() 函數,計算某個字符串,并執行其中的的 JavaScript 代碼。

JavaScript eval() 函數,計算某個字符串,并執行其中的的 JavaScript 代碼。 適合用于計算器的計算,等。 例子: eval("x10;y20;document.write(x*y)") document.write(eval("22")) var x10 document.write(eva…

vb整合多個excel表格到一張_[Excel]同一工作簿中多個工作表保存成獨立的表格

一個工作簿中有多個表格,如何將其表格單獨保存成一個獨立的文檔呢?如果表格少,操作如下:選中要導出表格的標簽名--鼠標郵件--移動或復制表格--新建工作簿。當如果表格太多呢,以上方法就太羅嗦了。簡單方法用VBA,步驟如…

sqlserver字符串多行合并為一行

1 --創建測試表2 CREATE TABLE [dbo].[TestRows2Columns](3 [Id] [int] IDENTITY(1,1) NOT NULL,4 [UserName] [nvarchar](50) NULL,5 [Subject] [nvarchar](50) NULL,6 [Source] [numeric](18,0) NULL7 )8 GO9 10 --插入測試數據 11 INSERT INTO [TestRows2C…

OpenCore 的代碼結構

OpenCore的代碼結構 以開源Android 的代碼為例,Open Core 的代碼在Android 代碼的External/Opencore 目錄 中。這個目錄是OpenCore 的根目錄,其中包含的子目錄如下所示: android:這里面是一個上層的庫,它基于PVPlaye…

深度學習之卷積神經網絡 GoogleNet

GoogLeNet Incepetion V1 這是GoogLeNet的最早版本,出現在2014年的《Going deeper with convolutions》。之所以名為“GoogLeNet”而非“GoogleNet”,文章說是為了向早期的LeNet致敬。 深度學習以及神經網絡快速發展,人們不再只關注更給力的硬件、更大…

名詞解釋 算法的有限性_數據結構與算法期中考試卷(含答案)

玉林師范學院期中課程考試試卷(2010——2011學年度第一學期)命題教師:劉恒 命題教師所在系:數計系 課程名稱:數據結構與算法 考試專業:信計 考試年級:09級一、單項選擇題(每題2分,共30分,把正確…

Jzoj4348 打擊目標

又是被水題坑了。。。 一直想不出來看題解說要什么主席樹,于是開始打離線算法 結果打到一半發現要強制在線。。No!!! 發現直接AC自動機似乎可做?樹剖之后在AC自動機上跑的時候判斷一下不就好了嗎!連線段樹都不要 讓后快樂切掉,速度還可以&…

深度學習之卷積神經網絡 VGGNet

2014年,牛津大學計算機視覺組(Visual Geometry Group)和Google DeepMind公司的研究員一起研發出了新的深度卷積神經網絡:VGGNet,并取得了ILSVRC2014比賽分類項目的第二名(第一名是GoogLeNet,也是…

SpringMVC 返回json的兩種方式

前后臺數據交互使用json是一種很重要的方式.本文主要探討SpringMVC框架使用json傳輸的技術. 請注意,本文所提到的項目使用Spring 版本是4.1.7,其他版本在具體使用上可能有不一樣的情況. 一、最常見——使用RequestBody的注解返回一個實體對象; 使用方式如下: 1:引入jar包&#…

word上怎么把圖片拼接到一起_如何用Word把自己插入的兩張圖片合在一起?

例如上面效果的設置方法:1、單擊插入----圖片按鈕;2、彈出插入圖片對話框,按住Ctrl鍵,同時選擇所需要的圖片;3、選中圖片,單擊圖片工具格式----文字環繞----緊密型環繞;4、此時,用鼠…

深度學習之卷積神經網絡 ResNet

論文 Identity Mappings in Deep Residual Networks 2015年,ResNet(Residual Neural Network)由微軟研究院的Kaiming He等四名華人提出,并在ILSVRC2015比賽中取得冠軍,在top5上的錯誤率為3.57%,同時參數量…

按照RFC3984協議實現H264視頻流媒體 RTSP H264

轉自:http://topic.csdn.net/u/20100104/16/0fd992e8-b0a6-4c2b-85a4-d9513d3b1491.html 相信有不少人和我一樣,希望實現H264格式視頻的流媒體播放。但是對于一個新手來說,往往不知道從何入手。利用百度,GOOGLE等搜索資料真是沙里…

搭建SSM框架之Spring

作為一枚大四準備畢業的學生,最重要的事便是畢業設計,前些日子剛剛拿到畢設題目:“3D網絡圖:面向網絡結構數據的可視化軟件設計”,(⊙o⊙)…,怎么說哪,看到題目就是一頭霧水(前幾屆不…