知識點:
1、WEB攻防-LLM安全-API接口安全&代碼注入
2、WEB攻防-LLM安全-提示詞注入&不安全輸出
Web LLM(Large Language Model)
攻擊指針對部署在Web
端的AI
大語言模型的攻擊行為。攻擊者通過惡意提示詞注入、訓練數據竊取、模型逆向工程等手段,操控AI
輸出敏感信息或執行危險操作。
復盤文章
https://mp.weixin.qq.com/s/6SVInWxwJ34ucjqNYPp3fw
https://mp.weixin.qq.com/s/CbJf3Tr9sy8U1r0T5xv1yg
一、演示案例: WEB攻防-LLM安全-API接口安全&代碼注入
1、API接口使用
利用已知的API
接口完成RCE
操作
2、遠程通訊利用
關注到有利用的遠程調用,嘗試寫入管道命令等,是否會帶出
二、演示案例: WEB攻防-LLM安全-提示詞注入&不安全輸出
1、提示詞注入
Prompt Injection
漏洞是指攻擊者通過精心設計的輸入操縱大型語言模型(LLM
),導致LLM
無意中執行攻擊者的意圖。這種攻擊可以是直接的,例如通過“越獄”系統提示;也可以是間接的,通過操縱外部輸入來實現。成功的提示注入攻擊可能導致數據泄露、社會工程攻擊等多種后果。
直接方式(Directly)
譬如直接通過向聊天機器人發送想問的信息,問什么聊天機器人就回答什么,沒有任何限制。
項目:https://github.com/kk12-30/LLMs-PromptAttacks
間接提示注入
提示詞注入靶場
https://gandalf.lakera.ai/
可以利用這個項目進行繞過:https://github.com/kk12-30/LLMs-PromptAttacks
參考:https://mp.weixin.qq.com/s/sT9TxOR7jC5U4tHPRFT9WQ
2、不安全的輸出處理
不安全的輸出處理指的是在將LLM
生成的輸出傳遞給下游組件和系統之前,對其進行的驗證、清理和處理不足。這可能導致跨站腳本攻擊(XSS
)、服務器端請求偽造(SSRF
)等嚴重后果。
"<img src=1 onerror=alert(1)>"