GPTSecurity是一個涵蓋了前沿學術研究和實踐經驗分享的社區,集成了生成預訓練Transformer(GPT)、人工智能生成內容(AIGC)以及大語言模型(LLM)等安全領域應用的知識。在這里,您可以找到關于GPT/AIGC/LLM最新的研究論文、博客文章、實用的工具和預設指令(Prompts)。現為了更好地知悉近一周的貢獻內容,現總結如下。
Security Papers
1.利用大語言模型進行漏洞檢測方面的進展總結
簡介:隨著軟件變得越來越復雜且容易出現漏洞,自動化漏洞檢測變得至關重要,但也具有挑戰性。隨著大語言模型(LLMs)在各種任務中取得重大成功,人們對它們在漏洞檢測中的效力越來越期待。然而,對它們在漏洞檢測中的潛力缺乏定量的理解。為了彌補這一差距,研究者引入了一個全面的漏洞基準VulBench。該基準匯集了來自各種CTF(奪旗)挑戰和真實應用程序的高質量數據,為每個易受攻擊的函數提供了詳細的漏洞類型和其根本原因的注釋。通過對16個LLMs和6個最先進的基于深度學習的模型和靜態分析器的實驗,研究者發現一些LLMs在漏洞檢測方面優于傳統的深度學習方法,揭示了LLMs在這一領域尚未開發的潛力。這項工作有助于理解和利用LLMs來增強軟件安全性。
鏈接:
https://arxiv.org/pdf/2311.12420.pdf
2.在軟件滲透測試中使用大語言模型的初步研究
簡介:大語言模型(LLM)在軟件滲透測試中具有潛力,能夠與人類操作員進行交互,逐步改進特定的安全任務。通過設計輸入提示來提供上下文和結構,可以使模型提供更準確的結果。利用LLM構建的AI智能體在軟件滲透測試中展現了可行性,并且可以通過反復使用和提示工程的工程方法來進一步改進。
鏈接:
https://browse.arxiv.org/pdf/2401.17459.pdf
3.LLM4SecHW:利用特定領域的大語言模型進行硬件調試
簡介:這篇論文介紹了一種名為LLM4SECHW的新框架,利用領域特定的大語言模型(LLM)進行硬件調試。該框架通過編譯版本控制數據集,實現了對硬件設計中錯誤的識別和修正,并在多種開源硬件設計上展示了其有效性。這種方法為其他領域中應用領域特定LLM的微調提供了參考工作流程,并為硬件設計中的自動化質量控制過程帶來了新的視角。
鏈接:
https://browse.arxiv.org/pdf/2401.16448.pdf
4.LLM的安全代碼審查:深入調查響應
簡介:該研究對三種最先進的大語言模型(Gemini Pro、GPT-4和GPT-3.5)在549個包含真實代碼審查的安全缺陷的代碼文件上的檢測性能進行了比較。結果顯示,LLMs生成的響應存在冗長、含糊和不完整的問題,需要提升其簡潔性、可理解性和符合安全缺陷檢測的能力。
鏈接:
https://browse.arxiv.org/pdf/2401.16310.pdf
5.基于覆蓋引導強化學習與以大語言模型為基礎進行變異的JavaScript模糊測試引擎
簡介:本文提出了一種名為CovRL的新技術,該技術將大語言模型與覆蓋反饋的強化學習相結合,旨在提高模糊測試的效果。CovRL-Fuzz模糊器通過構建加權覆蓋圖和計算模糊測試獎勵,可以生成更可能發現新覆蓋區域的測試用例,從而提高漏洞檢測能力,同時最小化語法和語義錯誤。評估結果顯示,CovRL-Fuzz在代碼覆蓋率和錯誤發現能力方面超過了當前最先進的模糊器,發現了48個與安全相關的實際錯誤,其中包括39個以前未知的漏洞和11個CVE。
鏈接:
https://arxiv.org/pdf/2402.12222.pdf