1、在LetNet5網絡中,卷積核的大小是?
答案:5*5
2、LeNet5網絡參數的數量約為?
答案:6萬
3、AlexNet與LeNet5相比,使用了哪些機制來改進模型的訓練過程?
答案:
數據增廣 | Dropout抑制過擬合 | ReLU激活函數 | CUDA加速神經網絡訓練 |
4、VGGNet使用的卷積核的大小是?
答案:3*3
5、神經網絡的“退化”現象是指?
答案:隨著網絡深度的增加,模型的準確性會不升反降
6、導致神經網絡“退化”的主要原因是?
答案:反向傳播算法中的鏈式求導法則
7、下列哪種網絡類型較好地解決了網絡“退化”問題?
答案:ResNet
8、神經網絡的學習率設置過大,容易導致:
答案:在最小值附近震蕩,無法收斂
9、神經網絡的學習率設置過小,容易導致:
答案:網絡收斂速度慢
10、下列關于Keras序貫式模型的說法,正確的是?
答案:
網絡層線性堆疊 | 構建簡單、結構清晰 | 單輸入、單輸出 |
11、Keras中定義序貫式模型的類為:
答案:Sequential
12、Keras中典型的函數式模型應用為:
答案:多輸入模型、多輸出模型
13、Keras中,神經網絡模型對象的方法包括:
答案:
fit | compile | predict | evaluate |
14、一個全連接層的參數數量與下列哪些因素有關?
答案:輸入的連接數、本層神經元的個數
15、Keras中,下列哪個方法可以輸出模型的信息?
答案:summary
16、多通道圖像的卷積核也應該是多通道的。
答案:對
17、下列哪些屬于Keras中的循環神經網絡層類型?
答案:
GRU | MaxPool | SimpleRNN |
18、使用默認參數的池化層之后,特征圖的尺寸將變為原來的:
答案:二分之一
19、卷積層的參數數量與哪些有關?
答案:
卷積核的個數 | 卷積核的形狀 | 輸入的特征圖的數量 |
20、下列哪些屬于圖像數據增廣的常見形式?
縮放 | 平移 |