1.如果增加神經網絡的寬度,精確度會增加到一個特定閾值后,便開始降低。造成這一現象的可能原因是什么?
A、即使增加卷積核的數量,只有少部分的核會被用作預測
B、當卷積核數量增加時,神經網絡的預測能力會降低
C、當卷積核數量增加時,導致過擬合
D、以上都不正確
2.構建一個神經網絡,將前一層的輸出和它自身作為輸入。下列哪一種架構有反饋連接?
A、循環神經網絡 B、卷積神經網絡 C、限制玻爾茲曼機 D、都不是
在訓練神經網絡時,損失函數(loss)在最初的幾個epochs時沒有下降,可能的原因是?
A、學習率(learning rate)太低 B、正則參數太高 C、陷入局部最小值?D、以上都有可能
3.下列哪一項屬于特征學習算法(representation learning algorithm)?
A、K近鄰算法 B、隨機森林 C、神經網絡 D、都不屬于
4.假設我們擁有一個已完成訓練的、用來解決車輛檢測問題的深度神經網絡模型,訓練所用的數據集由汽車和卡車的照片構成,而訓練目標是檢測出每種車輛的名稱(車輛共有10種類型)。現在想要使用這個模型來解決另外一個問題,問題數據集中僅包含一種車(福特野馬)而目標變為定位車輛在照片中的位置。
A、除去神經網絡中的最后一層,凍結所有層然后重新訓練
B、對神經網絡中的最后幾層進行微調,同時將最后一層(分類層)更改為回歸層
C、使用新的數據集重新訓練模型
D、所有答案均不對
5.假設你有5個大小為7x7、邊界值為0的卷積核,同時卷積神經網絡第一層的深度為1。此時如果你向這一層傳入一個維度為224x224x3的數據,那么神經網絡下一層所接收到的數據維度是多少?
A、218x218x5 B、217x217x8 C、217x217x3 D、220x220x5
6.假設我們有一個使用ReLU激活函數的神經網絡,假如我們把ReLU激活替換為線性激活,那么這個神經網絡能夠模擬出同或函數(XNOR function)嗎?
A、可以 B、不好說 C、不一定 D、不能
7.下列的哪種方法可以用來降低深度學習模型的過擬合問題?
1增加更多的數據 2使用數據擴增技術 3使用歸納性更好的架構 4正則化處理?5降低架構的復雜度
A、1 4 5 B、1 2 3 C、1 3 4 5 D、都有用
8.下圖是一個利用sigmoid函數作為激活函數的含四個隱藏層的神經網絡訓練的梯度下降圖。這個神經網絡遇到了梯度消失的問題。下面哪個敘述是正確的?
A、第一隱藏層對應D,第二隱藏層對應C,第三隱藏層對應B,第四隱藏層對應A
B、第一隱藏層對應A,第二隱藏層對應C,第三隱藏層對應B,第四隱藏層對應D
C、第一隱藏層對應A,第二隱藏層對應B,第三隱藏層對應C,第四隱藏層對應D
D、第一隱藏層對應B,第二隱藏層對應D,第三隱藏層對應C,第四隱藏層對應A
9.考慮某個具體問題時,你可能只有少量數據來解決這個問題。不過幸運的是你有一個類似問題已經預先訓練好的神經網絡。可以用下面哪種方法來利用這個預先訓練好的網絡?
A、把除了最后一層外所有的層都凍結,重新訓練最后一層
B、對新數據重新訓練整個模型
C、只對最后幾層進行調參 (fine tune)
D、對每一層模型進行評估,選擇其中的少數來用
A和C都有道理,A的計算量小且可以有等價的效果
10.在選擇神經網絡的深度時,下面哪些參數需要考慮?
1 神經網絡的類型(如MLP,CNN)
2 輸入數據
3 計算能力(硬件和軟件能力決定)
4 學習速率
5 映射的輸出函數
A、1,2,4,5 B、2,3,4,5 C、都需要考慮 D、1,3,4,5
11.當數據過大以至于無法在RAM中同時處理時,哪種梯度下降方法更加有效?
A、隨機梯度下降法 B、不知道 C、整批梯度下降法 D、都不是
12.在一個神經網絡中,知道每一個神經元的權重和偏差是最重要的一步。如果知道了神經元準確的權重和偏差,便可以近似任何函數,但怎么獲知每個神經的權重和偏移呢?
A、搜索每個可能的權重和偏差組合,直到得到最佳值
B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調整權重(梯度下降)
C、隨機賦值,聽天由命
D、以上都不正確的