“以火攻火”的思路解決大語言模型(LLMs)“幻覺”問題
虛構是由于與提示無關的內部因素而不可預測地從 LLM 中出現的幻覺。作者專注于衡量 LLM 對提示響應的不確定性,使用高不確定性表示虛構的假設。他們通過計算一個稱為熵的量來估計這種不確定性**,熵可以被認為是模型生成的可能輸出的隨機性**。然而,Farquhar 等人 。通過設計一種基于 LLM 確定的相似性的“語義”熵度量,在意義而不是單詞層面測量不確定性。然后,他們使用第三個 LLM 來評估響應的準確性。簡而言之,他們的方法相當于以火攻火:作者提出 LLM 可以成為控制 LLM 策略的一個組成部分。
大語言模型的應用與“幻覺”問題
大語言模型驅動的文本生成系統很受歡迎,不管是忙碌的高管、程序員,還是科學家,都在用它。科學家們甚至把它用在藥物研發、材料設計、數學定理證明等領域。
但這類模型有個大問題——“幻覺”,就是它回答問題時,可能會給出聽起來合理,但實際上錯誤或無關的內容。這種情況如果沒被發現,可能會導致失誤甚至危害。