總目錄 大模型安全相關研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
How to Steer LLM Latents for Hallucination Detection?
https://arxiv.org/pdf/2503.01917
https://www.doubao.com/chat/2818934852496130
其它資料:
https://blog.csdn.net/weixin_40240616/article/details/146155278
摘要
大語言模型(LLMs)中的幻覺問題對其在現實世界應用中的安全部署構成了重大擔憂。最近的一些方法利用大語言模型的潛在空間來檢測幻覺,但其嵌入是針對語言連貫性而非事實準確性進行優化的,常常無法清晰地將真實內容和幻覺內容區分開來。為此,