人工智能與機器學習單選題(50道)
1. 機器學習的核心目標是:
A. 通過硬編碼規則解決問題
B. 從數據中自動學習模式
C. 提高計算機硬件性能
D. 優化數據庫查詢速度
2. 以下屬于監督學習任務的是:
A. 聚類分析
B. 圖像分類
C. 異常檢測
D. 關聯規則挖掘
3. 過擬合的典型表現是:
A. 訓練誤差和測試誤差均高
B. 訓練誤差低,測試誤差高
C. 訓練誤差高,測試誤差低
D. 模型無法收斂
4. 以下哪種算法屬于無監督學習?
A. 邏輯回歸
B. K-Means聚類
C. 支持向量機(SVM)
D. 隨機森林
5. 交叉驗證的主要作用是:
A. 減少數據維度
B. 評估模型泛化能力
C. 加速訓練過程
D. 生成合成數據
6. 隨機森林的基分類器是:
A. 線性回歸模型
B. 決策樹
C. 神經網絡
D. 貝葉斯網絡
7. 深度學習中的“Dropout”技術用于:
A. 數據增強
B. 防止過擬合
C. 加速收斂
D. 特征提取
8. 分類問題中不常用的評價指標是:
A. 準確率
B. 均方誤差(MSE)
C. F1分數
D. ROC-AUC
9. PCA(主成分分析)的核心目標是:
A. 分類數據
B. 降低數據維度
C. 生成新數據
D. 優化計算速度
10. 梯度下降算法用于:
A. 計算數據統計量
B. 優化模型參數
C. 可視化數據分布
D. 清洗噪聲數據
11. 神經網絡中反向傳播的作用是:
A. 調整權重參數
B. 初始化網絡結構
C. 標準化輸入數據
D. 生成對抗樣本
12. SVM(支持向量機)的核心是:
A. 最大化分類間隔
B. 最小化數據維度
C. 擬合多項式函數
D. 隨機劃分邊界
13. 以下屬于集成學習算法的是:
A. K近鄰(KNN)
B. XGBoost
C. 單一決策樹
D. 線性回歸
14. 邏輯回歸的輸出范圍是:
A. (-∞, +∞)
B. [0, 1]
C. 任意實數
D. 離散類別
15. 卷積神經網絡(CNN)擅長的任務是:
A. 時間序列預測
B. 圖像識別
C. 文本分類
D. 結構化數據回歸
16. 以下哪個是回歸問題的評價指標?
A. 精確率
B. 均方根誤差(RMSE)
C. 召回率
D. 混淆矩陣
17. 決策樹的劃分標準不包括:
A. 信息增益
B. 歐氏距離
C. 基尼系數
D. 增益率
18. 樸素貝葉斯分類器的“樸素”是指:
A. 假設特征之間獨立
B. 模型結構簡單
C. 僅適用于二分類
D. 無需訓練數據
19. 以下方法不能緩解過擬合的是:
A. 增加訓練數據
B. 添加L1正則化
C. 減少模型層數
D. 使用更多特征
20. LSTM網絡主要用于處理:
A. 圖像數據
B. 序列數據(如文本、時間序列)
C. 表格數據
D. 高維稀疏數據
21. 強化學習的核心機制是:
A. 監督信號
B. 獎勵與懲罰
C. 數據聚類
D. 特征降維
22. 生成對抗網絡(GAN)包含的組件是:
A. 生成器與判別器
B. 編碼器與解碼器
C. 輸入層與輸出層
D. 支持向量與核函數
23. 以下不屬于特征工程的是:
A. 數據標準化
B. 特征選擇
C. 模型訓練
D. 獨熱編碼
24. K近鄰(KNN)算法的分類依據是:
A. 數據分布的均值
B. 鄰近樣本的多數投票
C. 決策邊界
D. 概率密度函數
25. 批量歸一化(BatchNorm)的作用是:
A. 加速模型收斂
B. 增加數據量
C. 減少參數數量
D. 生成對抗樣本
26. 關于損失函數的說法,錯誤的是:
A. 交叉熵常用于分類問題
B. 均方誤差常用于回歸問題
C. 損失函數值越小模型越好
D. 損失函數與模型性能無關
27. 模型泛化能力是指:
A. 在訓練集上的表現
B. 在未見數據上的表現
C. 計算速度
D. 參數數量
28. 以下不屬于深度學習模型的是:
A. 隨機森林
B. 卷積神經網絡(CNN)
C. Transformer
D. 循環神經網絡(RNN)
29. 數據增強(Data Augmentation)的目的是:
A. 減少數據量
B. 提升模型魯棒性
C. 降低計算成本
D. 刪除噪聲數據
30. 機器學習的“偏差-方差權衡”涉及:
A. 模型復雜度與泛化能力
B. 數據量與計算資源
C. 特征數量與存儲空間
D. 學習率與迭代次數
31. 以下關于神經網絡的描述,錯誤的是:
A. 深度網絡可以自動提取特征
B. 參數量越多模型一定越好
C. 激活函數引入非線性
D. 需要大量數據訓練
32. 目標檢測任務常用的算法是:
A. YOLO
B. K-Means
C. PCA
D. 線性回歸
33. 以下關于TensorFlow的描述,正確的是:
A. 僅支持Python語言
B. 由Facebook開發
C. 是一個開源深度學習框架
D. 不支持GPU加速
34. 混淆矩陣用于評估:
A. 回歸模型
B. 分類模型
C. 聚類模型
D. 降維模型
35. 以下算法對缺失值敏感的是:
A. 決策樹
B. 隨機森林
C. K近鄰(KNN)
D. 支持向量機(SVM)
36. 關于集成學習,說法正確的是:
A. 基模型之間必須高度相關
B. Bagging可以降低方差
C. Boosting會降低模型復雜度
D. 單一模型優于集成模型
37. 詞嵌入(Word Embedding)用于:
A. 圖像特征提取
B. 文本向量化表示
C. 數據降維
D. 模型壓縮
38. 以下關于正則化的說法,錯誤的是:
A. L1正則化會產生稀疏解
B. L2正則化又稱權重衰減
C. 正則化會增加模型偏差
D. 正則化旨在減少方差
39. 強化學習中的“探索-利用權衡”是指:
A. 嘗試新動作與利用已知最優動作的平衡
B. 增加數據量與減少計算資源的平衡
C. 特征選擇與模型訓練的平衡
D. 監督與無監督學習的平衡
40. 關于PyTorch和TensorFlow,錯誤的是:
A. 兩者均支持動態計算圖
B. PyTorch更常用于研究
C. TensorFlow僅由Google維護
D. 均支持GPU加速
41. 以下任務適合用循環神經網絡(RNN)的是:
A. 圖像分類
B. 機器翻譯
C. 聚類分析
D. 數據降維
42. 模型部署時,以下哪種方法可以減小模型體積?
A. 知識蒸餾
B. 增加網絡層數
C. 使用更高精度浮點數
D. 禁用GPU加速
43. 關于遷移學習,錯誤的是:
A. 可以復用預訓練模型
B. 僅適用于圖像數據
C. 減少對小數據集的依賴
D. 微調(Fine-tuning)是常用方法
44. 以下關于注意力機制(Attention)的說法,正確的是:
A. 僅用于計算機視覺
B. 可以捕捉長距離依賴關系
C. 會增加模型訓練時間但無法提升效果
D. 與Transformer無關
45. 以下場景不適合用機器學習的是:
A. 天氣預報
B. 信用卡欺詐檢測
C. 編寫操作系統內核
D. 推薦系統
46. 關于模型解釋性,說法正確的是:
A. 深度學習模型通常比決策樹更易解釋
B. SHAP是一種特征重要性分析方法
C. 模型復雜度與解釋性正相關
D. 線性回歸無法提供解釋性
47. 以下關于大數據與機器學習的關系,錯誤的是:
A. 數據量越大模型性能一定越好
B. 數據質量影響模型效果
C. 特征工程在大數據中仍然重要
D. 分布式計算框架(如Spark)可用于訓練
48. 關于AutoML,正確的是:
A. 僅用于自動化調參
B. 可以完全替代人工建模
C. 包括自動化特征工程和模型選擇
D. 不適用于深度學習
49. 以下技術不屬于深度學習優化方法的是:
A. 隨機梯度下降(SGD)
B. 批量歸一化(BatchNorm)
C. 主成分分析(PCA)
D. Adam優化器
50. 機器學習項目中最耗時的步驟通常是:
A. 模型訓練
B. 數據清洗與特征工程
C. 模型部署
D. 編寫算法代碼