目錄
一 單選
二 多選
三 判斷
四?填空
一 單選
1 一張圖片在存放過程中出現了很多小的噪聲,或白或黑,對其掃描進行以下哪一個操作的去噪效果最好?
A.均值濾波
B.中值濾波
C.高斯濾波
D.拉普拉斯濾波
2 以下哪個方法中使用了掩碼語言模型(Masked Language Model)?
A. BERT
B. Fast-RCNN
C. ELMo
D. GPT
3 下列哪一項屬于MindSpore的網絡結構算子?
A. mindspore.nn.Dense
B. mindspore.layer.Dense
C. mindspore.nn.FC
D. mindspore.layer. FC
4 如果說文本分類的輸入和輸出關系是一種多對一的關系,那么機器翻譯是以下哪一種關系?
A.一對多
B.多對一
C.多對多
D.一對一
5 以下關于神經網絡結構的設計,描述錯誤的是哪一項?
A.LSTM網絡的輸入層通常是3維的。
B.在分類問題中,輸出層的單元數一般等于分類的類型數。
○C.每個隱藏層的單元數越多分類精度越高,但是也會帶來計算性能的下降,因此,要平衡質量和性能間的關系。
D.隱藏層的層數越多,網絡精度越高,所以可以設置盡可能多的隱藏層。
6 MindSpore深度學習框架可以支持動態圖和靜態圖模式,下列哪一項是MindSpore靜態圖的設置代碼?
A. context. set context(mode=context. GPU_MODE)
B. context.set context(mode=context. GRAPH_MODE)
C. context.set _context(mode=context. PYNATIVE_MODE)
D. context.set context(mode=context. ASCEND_MODE)
7 MindSpore深度學習框架專門用于圖像增強的是以下哪一個模塊?
A. mindspore.numpy
B. mindspore.nn
C. mindspore.ops
D. mindspore.dataset.vision
8 在“Deep learning is my favorite subject”這句話中,如果窗口長度為3,則以下哪兩個詞的共現頻率為0?
A. Deep與subject
B. my與is
C. learning與is
D. favorite與subject
9 以下關于詞向量說法錯誤的是哪一項?
A.BERT與ELMo都可以生成動態詞向量。
B.Word2Vec有兩種類型,Skip-gram與CBOW。
C.原始的Glove方法可以很好的處理未登錄詞問題。
D.用fastText獲取詞向量能夠考慮子詞級別信息。
10 MindSpore的基本網絡單元是以下哪個選項?
A.Cell
B.Layer
C.Net
D.opti
11 John最近正在學習搭建卷積神經網絡,假設輸入圖像大小是15*15*3(w*h*c),經過一個含4個卷積核的卷積層,其中卷積核大小均為5*5,步長為2,無填充,在不計算Bias的情況下,該卷積層共有多少權重參數?
A.75 B.100 C.300?D.600
12 在使用GAN網絡的時候,會出現生成樣本單一的現象。這屬于生成對抗網絡中的哪一類問題?
A.模式崩塌
B.欠擬合
C.過擬合
D.梯度消失
13 在MindSpore數據處理過程中,需要對全數據集執行歸一化、通道變換等操作,需要借助以下哪一個方法?
A.Batch
B.Map
C.Shuffle
D.Repeat
14 下列哪一項是動態計算圖的核心特點?
A.計算圖的構建和計算是同時發生的。
B.計算圖的構建和計算是分開處理的。
C.更省內存,計算量更少。
D.編譯之后圖的結構不會發生改變。
15 在MindSpore中,能夠提供訓練過程可視化的是以下哪個子系統?
A. MindData
B. MindCompiler
C. MindInsight
D. MindExpress
16 相比于命名實體識別這類任務,將ELMo應用于閱讀理解、自動問答任務,哪部分的ELMo詞向量權重應該更大?
A.靠近底層
B.靠近頂層
C.中間層
D.所有位置權重一樣
二 多選
17 以下關于條件隨機場CRF模型的描述,哪幾項是正確的?
A.CRF可以與BiLSTM結合使用。
B.理論上CRF也可以與其他深度學習方法結合,比如BERT。
C.CRF中一般只使用—種特征函數。
D.CRF中需要對不同序列的結果進行概率歸一化。
18 卷積神經網絡的參數共享的優點包含以下哪幾項?
A.特征進行降維
B.緩解圖像位置不變性的問題
C.減少內存需求
D.輸出圖像類別
19 在使用MindSpore做自定義訓練時,我們可用TrainOneStepCell實現更加靈活的訓練,TrainOneStepCell不包含的入參是以下哪些選項?
A.lr(learning rate)
B.network(Cell)
C.optimizer(Cell)
D.gradient
20 MindSpore在網絡訓練過程中,為了調試網絡一般會觀察loss現象,loss現象一般有哪幾種表現?
A.loss波動過大,出現NAN,極大值等。
B.loss不收斂、收斂慢。
C.loss不變。
D.loss為0等。
21 MindSpore深度學習框架支持的優化器有以下哪幾種?
A.Adam
B.AdamWeightDecay
C.MSELoss
D.Momentum
22 使用MindSpore中的mindspore.nn.Embedding方法時,輸入為一個批次若干條文本數據,其維度為(batch_size,jnput_length),而輸出的維度包括以下哪幾項?
A.batch_size (批尺寸)
B.input_length (輸入文本長度)
C.vocab_size(詞典大小)
D.embedding_size(嵌入維度)
23 以下哪些選項是Pix2Pix模型可能出現的問題?
A.只能生成256x256的圖像,生成分辨率更高的圖像時效果比較差。
B.生成器接受邊緣圖像和噪聲作為輸入。
C.當同一類物體在圖像中重疊時,無法生成高質量的圖像。
D.pix2pix可以應用于自動著色。
24 對于PyTorch和MindSpore1.2的相互對應關系正確的是哪幾項?
A.PyTorch的“tensor.view()”與MindSpore的“mindspore.ops.Reshape()(tensor)”相對應。
B.PyTorch的“tensor.view()”與MindSpore的“mindspore.ops.operations.ResizeBilinear”相對應。
C.PyTorch的“torch.nn.Linear”與MindSpore的“mindspore.nn.Dense”相對應。
D.PyTorch的“torch.nn.Linear”與MindSpore的“mindspore.nn.Conv”相對應。
25 MindSpore在運行過程中,用戶可通過以下哪幾個方式收集訓練信息?
A.Callback
B.Adversarial Attack
C.Python的Log模塊
D.Adaptive Differential Privacy Training
26 MindSpore目前支持多種常用的數據增強算子,其中c_transforms模塊可以實現以下哪幾種功能?
A.OneHot
B.Acosh
C.FILL
D.Duplicate
27 Transformer模型的Decoder模塊中,有一層Attention計算中應用了Encoder模塊的信息,這些信息包含以下選項中的哪幾項?
A.Key
B.Value
C.Query
D.Positional Encoding
28 目標檢測算法的輸出有以下哪幾項?
A.類別
B.文本
C.邊界框的位置
D.目標區域大小
29 MindSpore提供了哪些模塊供用戶進行數據增強操作?
A. c_transforms
B. go_transforms
c. py_transforms
D. java_transforms
30 以下哪些任務屬于序列標注任務?
A.中文分詞
B.語義槽填充
C.命名實體識別
D.意圖識別
31 Word2Vec的訓練需要進行的是以下哪幾項步驟?
A.模型參數的更新
B.使用反向傳播方法
C.構建共現矩陣
D.計算損失函數
32 卷積神經網絡中1x1卷積的作用包含以下哪幾項?
A.控制輸出特征圖的通道數。
B.拉通不同特征圖之間的信息。
C.提供防止過擬合的能力。
D.調節超參數。
33 關于ELMo,GPT,BERT,描述不正確的是哪幾項?
A.ELMo、GPT、BERT三者都是靜態詞向量模型。
B.ELMo接近頂層的隱藏層包含了更多的語義信息。
C.BERT模型基于自注意力機制構建,其本質是對詞與詞之間關系的刻畫。
D.GPT是一個基于Transformer的雙向語言模型。
三 判斷
34 卷積神經網絡中池化層會壓縮層的高度和寬度,去掉Feature Map中不重要的樣本,同時也會改變通道數量。
正確答案:錯誤
35 YOLO網絡應用了object proposal方法,利用selective search的結果進行目標檢測。
正確答案:錯誤
36 二階優化器需要額外計算二階信息矩陣的逆矩陣,但由于該逆矩陣等價于一階導數的對角矩陣,所以計算量并沒有增加。
正確答案:錯誤
37 在AI訓練中,混合并行指的是混合分布式訓練。
正確答案:錯誤
38 直方圖均衡化可以對圖像的視覺效果進行增強,這種技術能夠自動計算變化函數,不需要人為設置參數,操作簡單,適用于所有情況。
正確答案:錯誤
39 將一個卷積神經網絡第一層的特征圖可視化,能夠看到清晰的目標輪廓特征。
正確答案:錯誤
40 BERT模型中使用了[Mask]標記表示該詞為掩碼,因此,使用BERT模型進行“預訓練-微調”任務時,會出現掩碼與原詞不一致的問題,可以使用相似詞替換的方式來解決該問題。
正確答案:正確
41 MindSpore在網絡訓練過程中,batch size過小時,模型一定不能收斂到較優的極小值上,同時會降低模型的泛化能力。
正確答案:錯誤
42 Transformer模型中的Encoder模塊使用了Mask操作。
正確答案:錯誤
43 使用MindSpore中的mindspore.nn.LSTM方法時,若隱藏層維度hidden_size為100,使用雙向LSTM,則在輸出的output張量中,代表文本數據每個位置輸出向量的維度也為100。
正確答案:錯誤
在MindSpore中使用mindspore.nn.LSTM時,如果設置了雙向LSTM并通過bidirectional=True參數啟用,那么輸出向量的維度實際上會是hidden_size * 2,而不是僅僅hidden_size。這是因為雙向LSTM包含兩個獨立的LSTM層,一個正向LSTM和一個反向LSTM,每個方向的LSTM都有各自的hidden_size。因此,對于每個時間步,你將得到兩個獨立的隱狀態輸出,分別來自正向和反向LSTM。這些輸出隨后會被拼接在一起,形成最終的輸出向量。
所以,如果你的hidden_size設置為100,并且你正在使用雙向LSTM,那么輸出的output張量中,代表文本數據每個位置輸出向量的維度將是200(100來自正向LSTM,100來自反向LSTM)。
具體而言,output張量的形狀將是(sequence_length, batch_size, hidden_size * num_directions),其中num_directions在雙向LSTM的情況下為2。
44 將TensorFlow的網絡遷移到MindSpore的過程中,為了保證兩個網絡中輸入相同,需要去除網絡中隨機性因素的影響。
正確答案:錯誤
45 Xavier初始化可以保持神經網絡每一層的輸入和輸出的方差一致。
正確答案:正確
46 MindSpore在進行構建模型時,權重初始值是模型訓練的起點,權重初始值需要全部設置為0。
正確答案:錯誤
47 MindSpore Lite轉換工具可支持MindSpore、TensorFlow、Caffe等深度學習框架模型。
正確答案:正確
48 Transformer模型提出后在自然語言處理領域得到了廣泛應用,包括ELMo,BERT,GPT以及盤古模型等都是在Tranformer的基礎進行改造的。
正確答案:錯誤
49 自注意力機制的出現早于RNN算法。
正確答案:錯誤
50 Bert網絡使用了Transformer結構,拋棄了傳統的RNN和CNN結構。
正確答案:正確
51 BiLSTM本質上是一種判別式模型,沒有對標簽與觀測序值之間的聯合概率進行建模。
正確答案:錯誤
52 語義分割是解決“每一個像素屬于哪類目標物或場景”的問題。
正確答案:正確
53 在Adagrad優化器中,初始的累計平方梯度不能為0,這主要是為了保證公式分母不為0。
正確答案:錯誤
四?填空
54 在《Convolutional Neural Networks for Sentence Classification》論文中的傳統TextCNN算法中,卷積核能夠在()個方向上進行滑動。(請填寫阿拉伯數字)
正確答案:1
55 若ELMo模型的LSTM層有3層,則最終用于下游任務的詞向量將是()層結果的線性組合。(請填寫阿拉伯數字)
正確答案:4
56 在使用MindSpore框架進行模型訓練時,希望指定checkpoint文件保存路徑,則需要使用以下接口“mindspore.train.callback.()”。
正確答案:ModelCheckpoint
57 當輸入文本長度為6(詞數),詞向量長度為128,使用TextCNN模型,并使用2個維度為5x128,2個維度為3×128的卷積核,則最后結果單元的數量為()。(請填寫阿拉伯數字)
正確答案:4
58?(?)方法在訓練過程中會隨機將該層的一些輸出特征舍棄(設置為0),是神經網絡有效也常用的正則化方法之一。(請填寫英文)
正確答案:Dropout(dropout)
59?MindSpore中全連接層的API為“mindspore.nn.()”。
正確答案:Dense
60?MindSpore的“mindspore.()”庫提供了MNIST,CIFAR-10,CIFAR-100,VOC,COCO, ImageNet,CelebA,CLUE等數據集。
正確答案:dataset
說明:本文內容來源于網絡,僅作為學習用途,如有侵權,請聯系作者刪除。