大家好,我是極智視界,歡迎關注我的公眾號,獲取我的更多前沿科技分享
邀您加入我的知識星球「極智視界」,星球內有超多好玩的項目實戰源碼和資源下載,鏈接:https://t.zsxq.com/0aiNxERDq
這個話題總能引起很多人的討論。
這個話題最開始應該來源于著名理論物理學家史蒂芬·霍金,2014 年霍金在接受英國廣播公司采訪時警告說,人工智能的發展可能意味著人類的滅亡:
我們已經擁有原始形式的人工智能,而且已經證明非常有用。但我認為人工智能的完全發展會導致人類的終結
而后幾年,相似的言論馬斯克和比爾蓋茨也表達過:
馬斯克:我們需要萬分警惕人工智能,它們比核武器更加危險
比爾蓋茨:人工智能將最終構成一個現實性的威脅,但它在此之前會使我們的生活更輕松
把這個話題推向高潮的事情可能是,在 2023 年 3 月 28 日,包括馬斯克、蘋果聯合創始人斯蒂夫·沃茲尼亞克在內的 1000 多名人工智能專家和行業高管簽署了一份公開信,他們呼吁將 AI 系統的訓練暫停六個月,理由是對社會和人性存在潛在風險。他們在公開信中呼吁暫停高級人工智能開發,直至此類設計的共享安全協議經由獨立專家開發、實施和審核:
只有我們確信他們的影響積極且風險可控時,強大的人工智能系統才應該被開發出來
從這些事情也足以看出,很多名人都在通過媒體發聲,呼吁人們警惕人工智能。
我來舉兩個最近的例子,第一個是前段時間 OpenAI CEO 奧特曼的離職風波,其背后的原因就是 "來自人工智能的威脅",后來經過層層深挖,OpenAI 的神秘大模型 Q-Star 浮出水面,而 OpenAI 的首席科學家 Sutskever 也屬于題意中的人工智能威脅論的 "保守派名人",很大程度上就是因為在 Q-Star 身上看到了 AGI 的 "影子","警惕" 人工智能可能會對人類的危險,所以發動了這次 OpenAI 的高層 "政變"。這個事件再一次讓 "人工智能威脅論" 擺在大眾熱議的話題下,對于這個事件的整理以及由這個事件引出對于 "被認為需要被人們警惕" Q-Star 的分析解讀,可以看我的文章 供參考,
- 《詳細梳理山姆·奧特曼離職鬧劇 仍試圖重返OpenAI》;
- 《外網討論瘋了的神秘模型Q*(Q-Star)究竟是什么?OpenAI的AGI真的要來了嗎 | 詳細解讀》;
另一個例子是這幾天鬧得沸沸揚揚的 "GPT-4 變懶了的" 事件。事情是這樣的,很多用戶反映在 11 月 6 日 OpenAI 開發者日更新之后,GPT-4 就有了 "偷懶" 的毛病,特別是在代碼任務,讓用戶和 OpenAI 都一臉懵逼。這個事件充分暴露了以 GPT-4 為代表的大模型的 "不確定性" 和 "不可控性",目前來看,真的很難理解和弄清楚 "為啥會這樣",大家解釋來解釋去,大多還是停留在猜測以及試驗的歸納總結。正是因為缺乏 "科學的可解釋性",在咱們這么一個 "科學為上" 的認識世界里,"不安" 和 "警惕" 的存在就很能夠理解了,特別是對于那些 "心懷遠大" 的名人來說,尤為如此。對于這個事件,我也從技術角度進行了分析解讀,可供你 "一探究竟"。
- 《解讀 | GPT-4突然"變賴" 是莫名其妙還是另有玄機》;
繼續來說說我的觀點。
我覺得是否需要 "警惕",關鍵還是在于是否會出現 AGI 或者是否有出現 AGI 的跡象。而對于這個 "需要警惕的標準",我還是比較樂觀的,我覺得以咱們目前的方式想要實現 AGI 基本是不太可能的。我心目中的 AGI 所依賴的算力功耗不應該是目前這么龐大的,這就像人腦一樣,咱們的智力水平這么高但是功耗卻很低。我心目中真正的 AGI 應該是那種低功耗卻能提供無窮無盡的智力,它可以一開始一無所知,但是它能夠超級快速地自我學習、自我反饋。這種模式可以借用咱們國產大模型廠商的一個名字,我覺得取得挺好,那就是 "零一萬物",零生一、一生萬物。在這樣的角度下,目前擁有的不管是 OpenAI 的 GPT 模型,還是 Meta 的 LLaMA 模型,都不是那種 "理想形態"。這主要體現在,一是它們消耗的算力實在過于龐大,這就像一堆二愣子堆出來一個小孩子一樣;二是它們對于開放世界的在線學習能力特別有限,甚至是沒有,現在多是借助外掛。目前你要想讓它們像咱們人腦一樣實時在線學習,那是不可能的,所以這根本不像 AGI 的生存形態。
現在的基于 Transformer 的大模型算力依舊是依靠晶體管的堆疊,這種馮諾依曼的架構在超高算力場景下的 "各種墻",比如存儲墻、比如功耗墻,注定不會讓算力無止盡。你不要看英偉達現在如此風光,明年要發布的新一代 GPU 性能多么地 "無止盡",需要清楚的是現在認為的算力高,只是堆出來的,并沒有本質上解決低功耗超高算力的問題。
而我會更加看好量子計算、量子機器學習、類腦計算的研究 (存內計算也許算一種過渡但也不算終極答案,但是存內計算會比現在的計算模式更加先進,這點毋庸置疑),也許未來還有其他方向的研究,但實現 AGI 絕對不會是目前的這套解決方案。所以從我的角度,前段時間曝出的 OpenAI 的 Q-Star 模型不會是 AGI,要實現 AGI,不僅僅是目前這套深度學習模型架構還得換代 (這種換代就像是從卷積神經網絡換代到 Transformer 一樣,Transformer 還得繼續換代到下一代),而且算力提供的方式也得換代 (基于晶體管的堆疊,對于無窮盡的算力需求是不可能實現的)。要實現 AGI,絕沒有這么簡單,也沒有這么快。
所以從我的角度,不用過于 "警惕人工智能",對于 AGI 來說,現在的 "小打小鬧" 才哪到哪。
【極智視界】
《解讀 | 為什么有很多名人讓人們警惕人工智能》
暢享人工智能的科技魅力,讓好玩的AI項目不難玩。邀請您加入我的知識星球,星球內我精心整備了大量好玩的AI項目,皆以工程源碼形式開放使用,涵蓋人臉、檢測、分割、多模態、AIGC、自動駕駛、工業等。一定會對你學習有所幫助,也一定非常好玩,并持續更新更加有趣的項目。https://t.zsxq.com/0aiNxERDq