模型幻覺(Model Hallucination)是大模型生成內容時脫離事實、虛構信息的一種現象,尤其在語言模型、圖像生成模型等中較為常見。為了更深入地理解這一現象,我們可以將其分為兩個維度進行分析:內在幻覺(Intrinsic Hallucination) 和 外在幻覺(Extrinsic Hallucination)。
一、引言
大規模語言模型(LLMs)在自然語言生成任務中展現出強大的能力,但同時也存在生成內容與事實不符、邏輯混亂、語義偏差等問題,統稱為“幻覺”(Hallucination)。幻覺不僅影響模型的可用性和可信度,還制約其在高風險場景(如醫療、金融、法律等)中的應用。
學術界普遍將幻覺現象分為兩類:內在幻覺(Intrinsic Hallucination)與外在幻覺(Extrinsic Hallucination)。這一區分有助于明確幻覺產生的根因,并指導不同的檢測與緩解策略。
二、內在幻覺(Intrinsic Hallucination)
2.1 定義
內在幻覺是指模型生成的文