1、一個含有2個隱藏層的多層感知機(MLP),神經元個數都為20,輸入和輸出節點分別由8和5個節點,這個網絡有多少權重值?
答:在MLP中,權重是連接神經元的參數,每個連接都有一個權重。
輸入層到第一個隱藏層的權重數: 輸入節點數 * 第一個隱藏層的神經元數 = 8 x 20 = 160
第一個隱藏層到第二個隱藏層的權重數:第一個隱藏層的神經元數 * 第二個隱藏層的神經元數 = 20 x 20 = 400
第二個隱藏層到輸出層的權重數: 第二個隱藏層的神經元數 * 輸出層的節點數 =?
?20 x 5 = 100
將這些相加,得到總權重數:160+400+100=660
2、假設原圖size是100 * 100,經過一個卷積核size是5*5,stride = 3的卷積層之后,輸出的特征圖上每個點在原圖上的局部感受野是什么?
答:
在卷積層中,每個輸出特征圖上的點都是通過卷積核在輸入圖像上滑動計算得到的。輸出特征圖上的每個點在原圖上的局部感受野就是卷積核的大小,因為卷積核覆蓋的區域就是該點的局部感受野。
所以,對于這個問題,輸出特征圖上每個點在原圖上的局部感受野就是卷積核的大小,即 5 × 5 5×5 的區域。但是,題目問的是局部感受野的邊長,而不是面積。由于卷積核是正方形的,所以邊長就是5。
3、循環神經網絡(RNN)可以捕捉輸入數據中的序列信息。
可以多輸入多輸出、單輸入多輸出、多輸入單輸出。
4、Adam優化器的組成: RMSprop +?Momentum
Momentum(動量)動量優化器通過在梯度下降過程中加入之前梯度的指數加權平均,以加速收斂并減少震蕩。
RMSprop:RMSprop優化器是Adagrad的改進版,它通過只考慮最近梯度的指數衰減平均來調整學習率,解決了Adagrad學習率過早減小的問題。
5、softmax函數又稱為歸一化指數函數,因為它通過指數函數將輸入值轉換為正數,然后進行歸一化處理,使得輸出值的和為1.
Softmax回歸模型是解決多分類問題
sigmoid函數通常解決二分類問題。
softmax函數可以看作是sigmoid函數的推廣。sigmoid函數用于二分類問題,而softmax函數可以處理多于兩個類別的分類問題。
在多分類問題中,softmax函數的輸出通常與交叉熵損失函數(cross-entropy loss)聯合使用。交叉熵損失函數衡量的是模型輸出的概率分布與真實標簽的概率分布之間的差異。
6、tanh函數(雙曲正切函數)。它解決了sigmoid函數的不以0為中心輸出問題,然而梯度消失的問題仍然存在
?
7、L1正則化,通過向損失函數添加一個正則項來防止模型過擬合。這個正則項是模型權重的絕對值之和,即 ?∑∣w∣,其中 w 是模型的權重。
權重衰減通常指的是L2正則化,它通過添加權重的平方和到損失函數中來實現,即? ∑w 2 。權重衰減有助于控制模型的復雜度,使得權重值較小,從而避免過擬合。
所以“L1正則化也叫權重衰減”是錯誤的。
8、當問題的解決方案很復雜,或者問題可能涉及到大量的數據卻沒有明確的數據分布函數時,比較適合使用機器學習方法。
9、LSTM(長短期記憶網絡)是一種特殊的循環神經網絡。它通過引入門控機制來解決傳統RNN中的梯度消失和梯度爆炸問題。? LSTM包含以下幾個關鍵的門:
(1)遺忘門:遺忘門的作用是決定哪些信息應該從單元狀態中丟棄。它通過一個sigmoid激活函數來實現,sigmoid函數的輸出值在0到1之間,表示信息保留的程度,0表示完全丟棄,1表示完全保留。
(2)輸入門:輸入門由兩部分組成,一部分決定哪些值將更新,另一部分通過tanh函數生成一個新的候選值,這個值將被添加到單元狀態中。輸入門同樣使用sigmoid激活函數來決定哪些信息需要被更新。
(3)輸出門:輸出門控制當前時間步的記憶單元信息的輸出。它由一個sigmoid激活函數和一個tanh激活函數組成。sigmoid函數決定哪些信息應該被輸出,而tanh函數則處理記憶單元的狀態以準備輸出。
(4)候選記憶單元(candidate memory cell):雖然不是門,但是是LSTM中的一個關鍵組件,它通過tanh激活函數生成一個新的候選值,這個值將被輸入門控制是否添加到單元狀態中。
10、在隱馬爾可夫模型(HMM)中,觀測概率通常可以通過高斯混合模型(GMM)來計算。
11、CANN的算子融合引擎結合昇騰的芯片可以減少參數的計算。
12、EM算法(Expectation-Maximization Algorithm)是一種迭代算法,用于在統計模型中找到最大似然估計或最大后驗概率(mAP)估計,特別是在處理含有隱變量的模型時。EM算法的基本步驟包括:
(1)初始化參數
(2)E步驟:計算隱變量的期望值,即在當前參數估計下,隱變量的條件期望。
(3)M步驟:最大化期望的對數似然函數,以找到參數的新估計值。
(4)迭代至收斂:重復E步驟和M步驟,知道參數估計值收斂,即連續迭代之間的變化非常小或達到預設的迭代次數。
13、反向傳播算法(Backpropagation)的核心是利用鏈式法則來計算損失函數關于網絡參數的梯度。
14、【填空題】 ModelArts 平臺中的(自動學習 )服務是ModelArts平臺為初學者提供的入門服務,可以幫助初學者“零”基礎輕松搞定圖像分類、物體檢測等場景。(請填寫中文)
15、在卷積神經網絡中,通常只有兩種池化方法:最大池化和平均池化。
16、華為云語音交互服務目前支持以下哪些類型的SDK:python和java
17、【填空題】 將GRU的重置門設置為1,更新門設置為(0)那么將獲得標準RNN模型(請慎寫阿拉伯數字)
18、【判斷題】 混淆矩陣對角線上的數值越高,說明該分類器的分類效果越好? ? ? ? 正確
19、命名實體識別(Named Entity Recognition,簡稱NER)是自然語言處理領域中的一項重要任務。它涉及識別文本中的命名實體,并將其分類到預定義的類別中。命名實體是指文本中具有特定意義的實體,如人民、地點、組織、時間表達式、數量、貨幣值、百分比等。
命名實體識別:確定文本中哪些詞或短語構成一個命名實體。
實體分類:將識別出的實體分配到相應的類別中。例如,將“北京”分類為地點(Location),將“2024年”分類為時間(Time)。
以下不是命名實體識別的難度有?? ? 長度統一
20、【填空題】 (TBE)是高效高性能的自定義算子開發工具,該工具將硬件資源抽象為API接口,客戶可以快速構建所需的算子
21、【填空題】 昇騰310的功率:( 8W )
22、LSTM的cell當中的門的選項是:遺忘門、輸入門和輸出門。沒有記憶門
23、動量優化器的動量項包含:前一次的方向和大小。
動量優化器是一種用于深度學習中的優化算法,它通過引入動量項來加速梯度下降過程。動量項的計算通常涉及到前一次梯度的方向和大小,這樣可以幫助優化器在相關方向上積累動量,從而加快收斂速度并減少震蕩。
24、華為人工智能芯片是(昇騰),采用的架構是(達芬奇)架構
25、【填空題】 通過( 注意力 )機制可以解決由RNN構成的Seq2Seq模型中的信息瓶頸問題。(請輸入中文)
26、【填空題】 圖像預處理中,( 降噪 )的作用是去除噪聲等(請填寫中文名詞)。
27、關于詞袋模型(Bag of Words,BoW)正確的是:
(1)詞袋模型是對文本進行編碼。(將文本數據轉換為數值數據的編碼方法,它通過創建一個詞匯表來表示文本中出現的單詞)
(2)在向量中,該單詞的索引位置的值為單詞在文本中出現的次數。(這描述了詞袋模型的一個關鍵特性,即文本被表示為一個向量,其中每個維度對應詞匯表中的一個單詞,而該維度的值表示單詞在文本中出現的次數。)
(3)編碼后的向量長度是詞典的長度。
錯誤的是:該編碼保留了詞出現的次序。(這是錯誤的,詞袋模型不保留單詞的順序信息,它只關心單詞的出現概率。)
28、語音合成是將文本轉換為語音的技術:
(1)串聯共振峰合成器(Concatenative formant synthesizer)這是一種基于拼接預先錄制的語音片段來合成語音的方法。
(2)并聯共振峰合成器(Parallel formant synthesizer)- 這是一種通過調整共振峰來合成語音的方法.
(3)共振峰合成器(Formant synthesizer)- 這是一種通過控制聲道的共振特性來合成語音的方法。
(4)PSOLA方法(Pitch Synchronous Overlap and Add)- 這是一種基于時間拉伸和壓縮的技術,用于語音合成,特別是用于調整語音的音高和時長。
29、隱馬爾科夫模型(HMM)是一種統計模型,它用來描述一個含有隱含未知參數的馬爾可夫過程。
在HMM中,存在一個狀態序列,這個狀態序列是不可見的(即“隱含的”)。所以,觀測狀態序列不是該模型的參數
我們可以看到觀測序列,但觀測狀態序列不可見。
30、【填空題】 ( textCNN )是一種使用卷積神經網絡專門對文本進行分類的模型(請填寫英文縮寫)
31、【填空題】 華為人工智能計算平臺的名字叫什么(Atlas)
32、關于雙向語言模型的描述,以下哪一項是正確的?? ?ELMO和BERT
33、【填空題】 華為全棧全場景AI解決方案中芯片使能層指( CANN )(請填寫英文縮寫)
34、華為云API符合Restful API的設計規范
35、【單選題】 用手機對一份文檔拍照時,因為拍攝角度的原因,圖像中的文檔有畸變,可以求出()個對應關鍵點坐標,對圖像進行( 透視 )變換,將文檔圖像修正。
答:
用手機拍文檔時,如果拍攝角度不是完全垂直于文檔,那么文檔在圖像中會出現畸變,這種畸變是透視畸變。透視畸變是因為拍攝角度導致的,使得圖像中的直線看起來是傾斜的或彎曲的。
為了修正這種畸變,可以采用透視變換(Perspective Transformation)。透視變換是一種幾何變換。它允許將圖像中的四邊形映射到另一個四邊形,通常用于校正圖像中的透視畸變,使得圖像看起來像是從正面拍攝的。
透視變換通常涉及到以下步驟:
- 確定圖像中文檔四個角的坐標。
- 定義一個新的矩形區域,通常是圖像中的一個矩形框,用于映射原始圖像中的四邊形。
- 應用透視變換,將原始圖像中的四邊形映射到新的矩形區域。