原創 | 文 BFT機器人?
01
引言
近年來,人工智能產業迅猛發展,大型語言模型GPT-4發展勢頭強勁,OpenAI推出ChatGPT、微軟推出Bing、馬斯克推出“最好的聊天機器人Grok”……科技巨頭紛紛入局AI領域,引入人工智能作為辦公工具的行業也越來越多。
人工智能的便利性,讓人們越來越依賴它的幫助,正因如此,AI的各項危機也逐漸浮現。人們在尋求AI幫助的時候,往往抱著信任的態度,而AI卻也可能會傳遞錯誤訊息。
02
什么是人工智能幻覺?
人工智能幻覺是指人工智能模型在處理數據或執行任務時產生的自我欺騙現象。
近日,劍橋詞典公布2023年度詞語:“Hallucinate”。這個詞的釋義原本為“似乎看到、聽到、感覺到或聞到一些不存在的東西,通常是因為健康狀況或因為你服用了某種藥物而產生幻覺”。但在AI時代的背景下,“Hallucinate”新增了一個注解:“當AI制造幻覺,它會產生錯誤訊息”。
劍橋詞典官方對選擇“Hallucinate”為年度代表詞做出了解釋:新含義“觸及了人們正在談論的AI核心”。
圖片來源:新浪網
“幻覺”的含義是:在沒有相應的外部或軀體刺激的情況下的感覺知覺,并根據其發生的感覺域進行描述。無論是否了解幻覺的本質,幻覺都可能發生。人工智能幻覺隱喻性地借鑒了這個概念,將人工智能產生的不準確信息描述為“幻覺”。
舉個例子:
1.圖像識別領域:一張包含斑點的狗的照片可能被錯誤地識別為豹子,這種錯誤識別即是幻覺的一種表現。
2.自然語言處理:人工智能模型可能產生語法不通或語義混亂的句子,甚至是完全無意義的文字。這可能導致誤解、信息錯誤傳達或者根本無法理解的輸出結果,稱為語言領域的幻覺。
人工智能幻覺有很多種類型,但所有這些都歸結為同一個問題:混合和匹配它們接受過訓練的數據,以生成一些全新的錯誤的東西。這些幻覺現象可能會對人工智能應用的可靠性和準確性造成嚴重影響。
03
人工智能的答案可信嗎?
生成式人工智能的誕生,推動了AI產業的發展,人們對于人工智能的評價多為肯定。人工智能聊天機器人擅長從不同來源收集信息,并將其以對話式、易于理解的格式合成。
但許多人在使用人工智能時,發現AI給出了不合理的結論,甚至是徹頭徹尾的謊言。AI的許多回應都很滑稽。例如,ChatGPT收集了很多公眾人物的出生和死亡日期,但無法明確表明他(她)已經死亡;它還聲稱有人徒步穿越英吉利海峽,金門大橋兩次穿越埃及;谷歌的巴德聲稱詹姆斯·韋伯太空望遠鏡拍攝到了太陽系以外行星的第一張圖像,而事實上,第一張此類圖像是由另一臺望遠鏡在2004年拍攝的。
這些例子引出了一個詞:“人工智能幻覺”。大型語言模型(LLM)生成的信息與現實的關系很微妙。其中一些內容似乎完全是捏造的,而另一些似乎借鑒事實虛構的,對于空白內容,人工智能會引用不相關內容填充。
調查顯示,這些不準確的回復內容在人工智能的應用中非常常見,而人類的反饋對于確保它們不會完全偏離軌道至關重要。
04
人工智能幻覺是怎么產生的?
目前,對于人工智能幻覺產生的原因眾說紛紜。研究人員認為,人工智能環境的現象與設計和測試期間數據提供不足有關。人工智能技術在不斷發展,但支持AI產品運轉的數據不充分,這會導致人工智能給出的答案偏離軌道。
另外,人工智能沒有情感,它們通過算法理解用戶的訴求,而有些問題人工智能無法理解,它們就有可能給出無意義或不準確的答案。
05
為什么人工智能幻覺是一個問題?
人工智能幻覺的產生根植于模型的處理復雜性以及對輸入數據的誤解。模型可能在處理數據時過于注重某些特定特征,而忽略了其他重要的上下文信息。
如今有數百萬人使用人工智能,有些人是出于好奇,有些人則把人工智能當做生活工作的工具,甚至有很多人非常依賴和信任人工智能。而人工智能平臺已經多次出現提供錯誤信息的現象,使人們對失誤的認知造成影響。
如果生活中的錯誤是小事,那么當人工智能用于關于生命的領域時,會直接影響到結果。例如:在醫療診斷中,人工智能模型的幻覺可能導致錯誤的疾病診斷,嚴重威脅患者的健康;在自動駕駛汽車領域,幻覺可能導致錯誤的環境感知,增加交通事故的風險。
人工智能幻覺也可能在社會層面引發問題。誤導性的信息輸出可能導致負面影響,例如在社交媒體傳播虛假新聞,影響公共輿論。
人工智能幻覺的問題不僅僅是技術發展中的攔路虎,更是社會發展中的潛在風險。
06
人工智能幻覺問題怎么解決?
在迎接人工智能時代的挑戰中,OpenAI提出的“過程監督”策略為解決“AI幻覺”問題提供了新的思路。通過獎勵大模型每個正確的推理步驟,而非簡單地獎勵最終答案,這一方法為人工智能的發展注入了更多的透明度和可信度。
圖片來源:新浪網
然而,我們作為使用者,同樣有責任保持警惕,不能完全信賴人工智能平臺給出的答案。要積極參與反饋,及時指出錯誤,讓技術人員盡快修補人工智能的漏洞,確保其他人在問相類似問題時人工智能不再給出錯誤答案。
另外,開發者也需要投入更多的時間測試人工智能、尋找更多的數據支持,讓模型盡可能多地熟悉數據,并不斷更新支持模型運轉的數據,確保模型數據來源的真實性。
注:部分圖片來源網絡
注:文章版權歸原作者所有,如有不妥,請聯系刪除。