LLM(大語言模型)的“幻覺”本質原因
LLM(大語言模型)的“幻覺”(生成與事實不符但模型自信輸出的內容)本質上是其作為概率統計模型的底層機制與訓練、推理過程中多重限制共同作用的結果。從模型內部邏輯、訓練機制到推理環節
一、底層機制:基于“統計關聯”而非“真實理解”
LLM的核心功能是預測“下一個token(詞/字)的概率分布”,其決策完全依賴于訓練數據中學習到的“token序列關聯規律”,而非對客觀世界的“真實理解”或“邏輯建模”。
- 例如,模型學到“愛因斯坦”和“相對論”高頻共現,“愛迪生”和“電燈”高頻共現,但它并不“知道”這兩個名字對應的人物與發明的因果關系或事實本質。當輸入中出現模糊提示(如“科學家發明了電燈”),模型可能因“科學家”與“愛因斯坦”的高關聯度(而非事實),錯誤輸出“愛因斯坦發明了電燈”。
- 這種“統計關聯優先”的機制,使得模型在面對訓練數據中“弱關聯但錯誤”的模式時,可能將其誤判為“高概率正確”,從而生成幻覺。
二、訓練數據的固有缺陷
訓練數據是模型“知識”的唯一來源,其質量直接決定模型輸出的可靠性,而數據的以下問題是幻覺的重要誘因:
-
數據中存在錯誤、噪聲或偏見
互聯網爬取的訓練數據(如論壇帖子、非權威博客、過時文檔