美國國會下屬的經濟與安全審查委員會已將“推動建立并資助一項堪比曼哈頓計劃的通用人工智能研發項目”列為其對國會的核心建議之一,明確顯示出對AI競賽戰略意義的高度重視。與此同時,美國能源部在近幾個月中多次公開將人工智能的突破比作“下一場曼哈頓計劃”,并表示愿意動用其全部政策與資源工具,為這一國家級技術競賽提供支持。在其一條近期發布的官方推文中,更是直言不諱地寫道:
“AI曼哈頓計劃”這一概念,正在人工智能的未來討論中成為熱門議題,尤其是在國家安全與全球戰略力量競爭的背景下。這一提法直接借鑒了歷史上的曼哈頓計劃——二戰期間一項高度機密、由政府主導的原子彈研發項目。然而,若將這一模型套用于AI,特別是通用人工智能(AGI),則引發了巨大爭議。支持者強調快速進展的必要性,而批評者則警告其可能帶來的深遠風險,并主張采取替代性方案。
“AI曼哈頓計劃”的核心設想,是動員一場全國范圍的科技競賽,其規模與強度堪比當年的曼哈頓計劃。通常具備三個特征:政府發起、整合私營部門AI資源(如算力),以及總投入占據GDP一定比例——與曼哈頓計劃或阿波羅登月計劃相當。
歷史上的洛斯阿拉莫斯國家實驗室,在原曼哈頓計劃中發揮了核心作用,如今也再次站上AI前沿。該實驗室新設立的國家安全AI辦公室,旨在整合各領域任務,聯合政府、產業和學術界,共同推進AI安全與前沿研究。從上世紀50年代教會“Maniac”計算機下棋開始,洛斯阿拉莫斯便深耕AI應用,當前在材料研究、生物信息學、疫苗開發等幾乎所有技術領域都已融合AI,并擁有AI驅動的“Venado超級計算機”。該實驗室致力于讓美國在AI競賽中保持科學優勢。
這一項目背后的推動力,源于對AI“重塑國家安全、情報系統、基礎設施乃至全球力量格局”的深刻理解。其增長速度驚人——過去五年取得的進展超過此前四十年之和。2024年11月,美國國會下屬的中美經濟與安全審查委員會就建議設立類似曼哈頓計劃的AGI國家項目。
在技術和財政方面,“AI 曼哈頓計劃”可能帶來史無前例的算力飛躍。據Epoch AI報告測算,若有足夠財政與政策支持,一種估算方式是考察當前GPU的性能價格比。例如,H100 GPU在FP16精度下的性能價格比約為2.2e10 FLOP/s/$。若在接下來三年中每年投入2440億美元,則一次持續100天的訓練運行可達約1.2e29 FLOP。這大約是GPT-4(2.1e25 FLOP)規模的1萬倍。
若參照阿波羅計劃的投入標準(年均2440億美元,占GDP的0.8%),連續三年可采購約2700萬塊H100等效GPU,支持為期100天的AGI模型訓練,總算力約為3e29 FLOP。這一規模的能耗約為7.4GW,相當于紐約市全年平均用電量,也接近世界最大核電站。盡管能源基礎設施通常建設周期較長,若動用《國防生產法》(DPA)則可加速推進。田納西州奧克里奇國家實驗室已建設鈾濃縮設施,為AI數據中心提供核能,反映了對中國在能源與AI基礎設施競爭壓力的直接回應。
然而,支持“AI 曼哈頓計劃”的觀點面臨重大質疑。許多AI倫理學者和安全倡導者認為,這種軍工主導、集中化、保密式的做法,可能誘發災難性后果,尤其在AGI層面。
人工通用智能(AGI)的追求正站在一個關鍵的十字路口,它既承諾將帶來顛覆性進步,同時也帶來了前所未有的風險。在全球范圍內,關于AGI的討論充滿了真實的擔憂與根本性的誤解,這些觀點正在影響國家戰略、企業研發路徑乃至整個社會對未來的規劃。理解這些風險與誤解的本質,對于今天作出的任何決策都至關重要,因為這些決策將深遠地影響人類的未來。
首先,AGI帶來的風險遠不止技術挑戰,它可能引發社會動蕩,甚至構成人類生存的威脅。OpenAI、Anthropic、Google DeepMind等機構的CEO均公開表示,AGI的發展有可能導致人類滅絕。這一觀點不再只是遙遠的假設,而被視為在當前技術軌跡下“極有可能”發生的情形。如果一個智能體的認知與控制力遠超人類,而我們又無法對其意圖進行可靠校準,它可能會接管核設施、金融系統等關鍵基礎設施,而人類卻無力阻止。如AI領域的“圖靈獎”得主Geoff Hinton所言:“一旦AI比我們聰明,它們就會接管一切。”
其最大的不確定性,在于人類是否有能力保持對其的控制,以及是否有方法將AGI的目標與人類價值對齊。這一挑戰不只是工程問題,更是深刻的道德與哲學難題。目前并不存在可預測或可靠的方法來確保AGI的行為符合人類利益,我們甚至尚未對“對齊”這一概念有公認的定義。更糟的是,在AGI競賽日益激烈的今天,為了追求速度與領先地位,幾乎沒有激勵機制去解決這些復雜且未解的問題。一旦在缺乏安全保障的前提下部署AGI,人類將處于被動與危險之中。
這一競賽本身也極具破壞性。當前的AGI競速已被一些學者稱為“自殺性競賽”,各參與方并不是為了合作或安全,而是陷入“負和博弈”,爭先恐后地搶占第一。這種格局極易促成AI軍事化,激化大國間的緊張關系,并可能因誤判引發全球沖突。例如中國正在快速推進核電建設計劃,2020至2035年間將建成150座核電站,其年度發電擴張量約為美國的五倍。這不僅為其AI算力提供強大支撐,也進一步加劇了全球AI能力競賽的緊迫感。
同時,AGI的發展也可能帶來權力過度集中與社會結構的劇烈變化。如果以類似“曼哈頓計劃”的方式進行秘密研發,最終可能只讓極少數科技公司與政府部門掌控巨大的權力。這可能催生一種“科技封建主義”,使AI掌控經濟主導地位,而缺乏透明度與公共問責機制。此外,AGI的發展可能使人類勞動的價值迅速接近于零,推動全民基本收入(UBI)等政策浮出水面,但也可能帶來“僵尸資本主義”等全新經濟困局。
公眾信任的崩塌同樣是不可忽視的后果。如果其的研發完全在軍事、封閉的環境下進行,公眾將自然聯想到核武器的歷史:盡管核能致死率極低,但公眾因核戰爭與輻射恐懼而強烈反對核能,使得其商業化進程嚴重滯后。AGI也可能重蹈這一覆轍,一旦公眾對其失去信任,即使技術本身安全,也難以獲得廣泛接受。
除了風險之外,關于AGI的誤解同樣危險。例如將AGI視為一種戰略性“奇跡武器”,可以帶來國家壓倒性優勢,這種觀點其實源自對曼哈頓計劃的類比。但AGI本質上更像是“通用技術”而非“單一用途武器”,其廣泛用途橫跨醫療、教育、科研、國防等各個領域。美國一些政策制定者對AGI寄予“獲得權力”的幻想,而非務實地推進其安全應用,這種“幻想戰爭”心態已被部分學者批評為“希望毒瘤”。
另一個重大誤區是認為AGI是“可控”的,或認為“對齊”問題已經得到解決。這是一種危險的誤導,甚至被某些AI倫理專家稱為“科學欺詐”。目前AI的進展主要基于模型擴展與黑箱方法,而非對智能本質的科學理解。科幻作品中如阿西莫夫機器人三定律那樣的“簡單規則”在現實中根本無法治理超級智能,因為世界過于復雜,任何預設規則都可能被誤解或規避。現實中的“對齊”很多時候只是“公關洗白”或“安全洗白”,比如讓聊天機器人表現得更“友善”,但這遠不足以解決AGI真正帶來的深層風險。
一些機構主張以“曼哈頓計劃”的方式推進AGI,然而包括RAND在內的研究機構指出這種模式是“戰略錯誤”。曼哈頓計劃是一次高度保密、軍方主導、目標單一的研發項目,它的思維模式并不適用于AGI。AGI的廣泛影響需要更開放、更民主的公共治理模式,更像阿波羅登月計劃那樣,通過國家主導、民間協作、全社會參與的方式實現跨學科突破。否則,只會加劇公眾不信任,并激發全球對抗局勢,特別是在與中國的競爭中,美國并不具備算力與能源上的壓倒性優勢。
未來生命研究所(FLI)明確指出,AGI競賽本質上是一場“自殺性競賽”,曼哈頓計劃式的做法建立在對AGI本質的誤解之上。他們強調,目前全球頂尖AI專家普遍認為我們無法預測、無法控制超級智能,也無法確保其價值觀與人類一致。FLI呼吁應停止以軍事控制為目標的AGI競賽,轉而建設“顛覆性工具型AI”,用于強化工業、科研、教育、醫療與國防等具體領域。
RAND智庫則指出,以曼哈頓計劃為模型來構建AGI是戰略錯誤。他們建議應學習阿波羅計劃的路徑——這是一項全民參與、公開透明、強調社會福祉的工程。在阿波羅計劃中,美國不僅實現了登月,更推動了全民STEM教育、技術擴散與全球科學聲望。
基于這一理念,RAND提出了“阿波羅式AGI發展方案”,強調以下關鍵目標:
推動AI教育普及,讓中小企業、各行業廣泛接觸并運用AI;
聚焦民用價值,如個性化教育、醫療服務、政府治理;
投資多樣化研究,避免對某一架構(如Transformer)過度依賴;
強化AI安全測試與監管,防止關鍵模型被盜或誤用;
建設國家級數據基礎設施;
擴大清潔能源,特別是核能供給;
推動國際AI外交,避免中美軍備競賽式發展。
在更進一步的AI安全討論中,主張“AI 曼哈頓計劃”應轉為“AI安全曼哈頓計劃”的呼聲日漸高漲。許多AI研究者指出,目前的AI進展主要依賴“規模堆疊”,缺乏對“智能本質”的真正理解。當前對齊(alignment)問題仍未解決,即便擁有先進的技術,也難以確保AI行為符合人類價值。
真正的“對齊”不僅僅是讓AI變得“好聊”,而是確保其行為在現實世界中始終符合人類長期利益。這不僅是工程問題,更是哲學、倫理與制度設計的多重挑戰。
為了安全推進AGI,應加強如下工作:
法規優先限制AGI原型與全自動研發系統;
建立“緊急關機”機制(如總統紅鍵),并定期演練;
推動國際條約,在全球GDP和人口門檻滿足時生效;
動員基層公民教育與政策倡導,推動AI立法。
在治理方面,“對齊”不僅是技術難題,更是哲學命題。目前AI仍處于“前科學”階段,我們尚未清楚為何它們有效,只是觀察到它們有效。要制定治理規則,首先必須解決“可理解性”問題,即我們能否對智能、代理、意識等核心概念進行明確定義?如果不能,那么所謂“監管”只能依靠模糊直覺,這在法律上是非常危險的。然而,治理并非完全無望,我們已成功制定過欺詐、誹謗等復雜問題的法律框架。關鍵在于,從現在開始監管AI的“前兆特征”:大算力、自動研發能力、無關閉開關的系統等。
解決之道在于建立“可糾正性”(corrigibility)、“目標對齊”(intent alignment)、“強制控制”以及“權力約束”四重機制。當前社交平臺治理的失敗已經證明,即便是人類主導的科技企業,我們都難以施加有效監管,更何況面對一個遠超人類的AGI?監管的“古德哈特定律”效應(即衡量指標一旦變成目標就會失效)也提醒我們,監管需要不斷迭代與演進。
最終,要想在AGI領域贏得真正的“勝利”,需要超越眼前的技術競賽,建立基于“倫理人本主義”的社會共識。這包括:提升全民AI素養,推動全球范圍內的治理實驗、國家級AI緊急預案、建立關鍵AI集群“關閉機制”、簽署多邊協議、強調司法透明,并廣泛吸納各行業、各階層的聲音。更重要的是,要喚醒公眾參與——研究顯示,在全球范圍內,公眾對AI帶來“生存風險”的擔憂正在快速增長。這種廣泛的焦慮并非“泡沫”,而是對我們未來的真切關切。
AGI的未來不是不可控的神話,也不是簡單的工具革命,而是一次關于“人類如何面對自身極限”的時代大考。我們仍然有機會選擇不同的路徑—— 是走向封閉、高危、少數掌權的科技獨裁?還是走向開放、安全、公正、全民共享的AI未來?答案掌握在我們手中。