一、引言
大語言模型(LLM)和 AI 智能體的出現推動進攻性安全變革,其在偵察、掃描、漏洞分析、利用、報告五個階段展現出數據分析、代碼生成、攻擊場景規劃等能力,能提升安全團隊效率與擴展性,但存在 “幻覺” 等局限性,需人類監督與 GRC 框架保障,同時威脅行為者也在利用 AI 增強攻擊,未來 AI 將向更高自主性發展,需平衡自動化與人工監控。
二、當前進攻性安全的核心挑戰
1、技術環境挑戰
攻擊面因 AI、云計算等技術擴大,高級威脅如無文件惡意軟件難以檢測,評估手段多樣性要求測試人員掌握多領域技能。
2、操作流程挑戰
動態環境需實時調整策略,自動化工具易導致誤報漏報,代碼審查等任務耗時耗力。
3、資源與合規挑戰
網絡安全人才短缺,工具開發消耗資源,需遵守嚴格合規標準。
三、AI 技術在進攻性安全中的應用
1、LLM 與 AI 智能體基礎
- LLM 具備數十億參數,可處理文本、代碼,生成內容并推理,但存在 “幻覺” 問題。
- AI 智能體通過 “規劃 - 推理 - 執行 - 分析” 循環自主完成任務,如 AutoGPT 可自主偵察。
2、AI 在五個階段的具體應用
| 階段 | AI 增強能力 | 典型工具 / 案例 |
|----|----|----|
| 偵察 | 數據收集自動化、工具編排(如 ShellGPT 生成命令行)、自適應測試規劃 | PentestGPT 將測試目標轉化為執行步驟 |
| 掃描 | 漏洞掃描器配置優化、輸出數據分析、流量模式識別 | LLM 解析 Nikto 掃描結果 |
| 漏洞分析 | 誤報過濾、情境感知分析、源代碼審計 | AI 掃描代碼效率超傳統 SAST 工具 |
| 利用 | 攻擊路徑規劃、惡意軟件生成、自動漏洞利用 | AI 智能體利用一日漏洞成功率 87%|
| 報告 | 自動生成綜合報告、可視化威脅態勢、生成補救建議 | AI 生成威脅態勢圖 |
四、威脅行為者的 AI 應用與未來趨勢
1、惡意應用場景
AI 輔助偵察、定制化釣魚郵件生成、惡意代碼開發、繞過雙因子認證。
2、未來發展方向
- 自主化:AI 智能體將更自主執行復雜攻擊,如 Wintermute 工具自主提權。
- 左移:進攻性安全融入 DevSecOps 早期階段。
- 民主化:降低安全測試門檻,GPT-4o 可自動生成攻擊腳本。
五、挑戰與治理框架
1、技術與非技術挑戰
- 技術:token 窗口限制(如處理 200 萬 token 需 Gemini 1.5 Pro)、幻覺、數據泄露。
- 非技術:數據隱私法規限制、AI 倫理違規、過度依賴風險。
2、GRC框架實施
- 可信賴 AI:微軟 Azure ML 確保安全,IBM Watson 提供可解釋 AI。
- 第三方管理:評估供應商對 ISO 27001、GDPR 的遵守情況。
- 合規標準:遵循 NIST AI RMF、OWASP LLM 安全檢查表。
六、解決的問題
1、AI 在進攻性安全的偵察階段如何提升效率?
AI 通過自動化數據收集(如 AutoGPT 審查社交媒體)、工具編排(ShellGPT 生成命令行參數)和自適應測試規劃(PentestGPT 將目標轉化為執行步驟),快速篩選有效信息,減少手動數據處理耗時,例如 LLM 可分析 SMTP、HTTP 響應以繪制網絡拓撲。
2、威脅行為者利用 AI 進行攻擊的主要方式有哪些?
威脅行為者利用 AI 輔助偵察(自動收集漏洞數據)、生成定制化釣魚郵件(分析公開信息制作個性化內容)、開發惡意代碼(混淆負載規避檢測)、研究漏洞(分析安全報告識別弱點),甚至繞過雙因子認證等安全機制。
3、實施 AI 驅動的進攻性安全時,如何平衡自動化與風險?
需建立 “人在回路” 監督機制,例如 LLM 驅動的工具需人類驗證輸出以避免幻覺導致的錯誤;同時構建 GRC 框架,如遵循 NIST AI RMF 確保 AI 安全合規,采用可解釋 AI(XAI)技術增強決策透明度,通過 RAG 技術補充領域知識減少誤判。