目前階段,現在的LLM缺少一個形式邏輯校驗模型。
網絡系統上不斷增長的信息相當部分不再純粹是人類生成,而是也由各種模型生成輸出,模型后續從網絡系統上取得信息,AI生態系統陷入了信息熵增循環,AI模型生態系統的計算輸出的真義誤差陷入發散循環,不是收斂而是發散了。應該增加一個形式邏輯校驗模型,識別并過濾掉網絡上增長信息中的邏輯垃圾信息,提取由人類創造而添加到網絡中的知識,只讓這些由人類創造而新增的知識被吸收進模型。
增加一個邏輯或形式邏輯校驗模型,并做到可以識別某些非正常的垃圾信息增量,識別出人類中不良機構的信息投毒模式,過濾掉垃圾帶毒信息增量。比如,有些不良機構大量發布廣告虛假信息,通過虛假信息的投毒行為,制造流量爆發,從而讓AI生態系統被誤導吸收虛假的垃圾或有害信息。
難點是如何讓人工智能類似人類一樣有“批判性智能”,人類中也是,比如有的人認知低,是人云也云類型的,他的頭腦里吸收的也是道聽途說的垃圾信息,有的人習慣性地對多信息通道進行相互校驗,通過驗證后才會進入自己頭腦。