“AI 曼哈頓計劃”:科技競賽還是人類挑戰?

美國國會下屬的經濟與安全審查委員會已將“推動建立并資助一項堪比曼哈頓計劃的通用人工智能研發項目”列為其對國會的核心建議之一,明確顯示出對AI競賽戰略意義的高度重視。與此同時,美國能源部在近幾個月中多次公開將人工智能的突破比作“下一場曼哈頓計劃”,并表示愿意動用其全部政策與資源工具,為這一國家級技術競賽提供支持。在其一條近期發布的官方推文中,更是直言不諱地寫道:

圖片

“AI曼哈頓計劃”這一概念,正在人工智能的未來討論中成為熱門議題,尤其是在國家安全與全球戰略力量競爭的背景下。這一提法直接借鑒了歷史上的曼哈頓計劃——二戰期間一項高度機密、由政府主導的原子彈研發項目。然而,若將這一模型套用于AI,特別是通用人工智能(AGI),則引發了巨大爭議。支持者強調快速進展的必要性,而批評者則警告其可能帶來的深遠風險,并主張采取替代性方案。

“AI曼哈頓計劃”的核心設想,是動員一場全國范圍的科技競賽,其規模與強度堪比當年的曼哈頓計劃。通常具備三個特征:政府發起、整合私營部門AI資源(如算力),以及總投入占據GDP一定比例——與曼哈頓計劃或阿波羅登月計劃相當。

歷史上的洛斯阿拉莫斯國家實驗室,在原曼哈頓計劃中發揮了核心作用,如今也再次站上AI前沿。該實驗室新設立的國家安全AI辦公室,旨在整合各領域任務,聯合政府、產業和學術界,共同推進AI安全與前沿研究。從上世紀50年代教會“Maniac”計算機下棋開始,洛斯阿拉莫斯便深耕AI應用,當前在材料研究、生物信息學、疫苗開發等幾乎所有技術領域都已融合AI,并擁有AI驅動的“Venado超級計算機”。該實驗室致力于讓美國在AI競賽中保持科學優勢。

這一項目背后的推動力,源于對AI“重塑國家安全、情報系統、基礎設施乃至全球力量格局”的深刻理解。其增長速度驚人——過去五年取得的進展超過此前四十年之和。2024年11月,美國國會下屬的中美經濟與安全審查委員會就建議設立類似曼哈頓計劃的AGI國家項目。

在技術和財政方面,“AI 曼哈頓計劃”可能帶來史無前例的算力飛躍。據Epoch AI報告測算,若有足夠財政與政策支持,一種估算方式是考察當前GPU的性能價格比。例如,H100 GPU在FP16精度下的性能價格比約為2.2e10 FLOP/s/$。若在接下來三年中每年投入2440億美元,則一次持續100天的訓練運行可達約1.2e29 FLOP。這大約是GPT-4(2.1e25 FLOP)規模的1萬倍。

圖片

若參照阿波羅計劃的投入標準(年均2440億美元,占GDP的0.8%),連續三年可采購約2700萬塊H100等效GPU,支持為期100天的AGI模型訓練,總算力約為3e29 FLOP。這一規模的能耗約為7.4GW,相當于紐約市全年平均用電量,也接近世界最大核電站。盡管能源基礎設施通常建設周期較長,若動用《國防生產法》(DPA)則可加速推進。田納西州奧克里奇國家實驗室已建設鈾濃縮設施,為AI數據中心提供核能,反映了對中國在能源與AI基礎設施競爭壓力的直接回應。

然而,支持“AI 曼哈頓計劃”的觀點面臨重大質疑。許多AI倫理學者和安全倡導者認為,這種軍工主導、集中化、保密式的做法,可能誘發災難性后果,尤其在AGI層面。

人工通用智能(AGI)的追求正站在一個關鍵的十字路口,它既承諾將帶來顛覆性進步,同時也帶來了前所未有的風險。在全球范圍內,關于AGI的討論充滿了真實的擔憂與根本性的誤解,這些觀點正在影響國家戰略、企業研發路徑乃至整個社會對未來的規劃。理解這些風險與誤解的本質,對于今天作出的任何決策都至關重要,因為這些決策將深遠地影響人類的未來。

首先,AGI帶來的風險遠不止技術挑戰,它可能引發社會動蕩,甚至構成人類生存的威脅。OpenAI、Anthropic、Google DeepMind等機構的CEO均公開表示,AGI的發展有可能導致人類滅絕。這一觀點不再只是遙遠的假設,而被視為在當前技術軌跡下“極有可能”發生的情形。如果一個智能體的認知與控制力遠超人類,而我們又無法對其意圖進行可靠校準,它可能會接管核設施、金融系統等關鍵基礎設施,而人類卻無力阻止。如AI領域的“圖靈獎”得主Geoff Hinton所言:“一旦AI比我們聰明,它們就會接管一切。”

其最大的不確定性,在于人類是否有能力保持對其的控制,以及是否有方法將AGI的目標與人類價值對齊。這一挑戰不只是工程問題,更是深刻的道德與哲學難題。目前并不存在可預測或可靠的方法來確保AGI的行為符合人類利益,我們甚至尚未對“對齊”這一概念有公認的定義。更糟的是,在AGI競賽日益激烈的今天,為了追求速度與領先地位,幾乎沒有激勵機制去解決這些復雜且未解的問題。一旦在缺乏安全保障的前提下部署AGI,人類將處于被動與危險之中。

這一競賽本身也極具破壞性。當前的AGI競速已被一些學者稱為“自殺性競賽”,各參與方并不是為了合作或安全,而是陷入“負和博弈”,爭先恐后地搶占第一。這種格局極易促成AI軍事化,激化大國間的緊張關系,并可能因誤判引發全球沖突。例如中國正在快速推進核電建設計劃,2020至2035年間將建成150座核電站,其年度發電擴張量約為美國的五倍。這不僅為其AI算力提供強大支撐,也進一步加劇了全球AI能力競賽的緊迫感。

同時,AGI的發展也可能帶來權力過度集中與社會結構的劇烈變化。如果以類似“曼哈頓計劃”的方式進行秘密研發,最終可能只讓極少數科技公司與政府部門掌控巨大的權力。這可能催生一種“科技封建主義”,使AI掌控經濟主導地位,而缺乏透明度與公共問責機制。此外,AGI的發展可能使人類勞動的價值迅速接近于零,推動全民基本收入(UBI)等政策浮出水面,但也可能帶來“僵尸資本主義”等全新經濟困局。

公眾信任的崩塌同樣是不可忽視的后果。如果其的研發完全在軍事、封閉的環境下進行,公眾將自然聯想到核武器的歷史:盡管核能致死率極低,但公眾因核戰爭與輻射恐懼而強烈反對核能,使得其商業化進程嚴重滯后。AGI也可能重蹈這一覆轍,一旦公眾對其失去信任,即使技術本身安全,也難以獲得廣泛接受。

除了風險之外,關于AGI的誤解同樣危險。例如將AGI視為一種戰略性“奇跡武器”,可以帶來國家壓倒性優勢,這種觀點其實源自對曼哈頓計劃的類比。但AGI本質上更像是“通用技術”而非“單一用途武器”,其廣泛用途橫跨醫療、教育、科研、國防等各個領域。美國一些政策制定者對AGI寄予“獲得權力”的幻想,而非務實地推進其安全應用,這種“幻想戰爭”心態已被部分學者批評為“希望毒瘤”。

另一個重大誤區是認為AGI是“可控”的,或認為“對齊”問題已經得到解決。這是一種危險的誤導,甚至被某些AI倫理專家稱為“科學欺詐”。目前AI的進展主要基于模型擴展與黑箱方法,而非對智能本質的科學理解。科幻作品中如阿西莫夫機器人三定律那樣的“簡單規則”在現實中根本無法治理超級智能,因為世界過于復雜,任何預設規則都可能被誤解或規避。現實中的“對齊”很多時候只是“公關洗白”或“安全洗白”,比如讓聊天機器人表現得更“友善”,但這遠不足以解決AGI真正帶來的深層風險。

一些機構主張以“曼哈頓計劃”的方式推進AGI,然而包括RAND在內的研究機構指出這種模式是“戰略錯誤”。曼哈頓計劃是一次高度保密、軍方主導、目標單一的研發項目,它的思維模式并不適用于AGI。AGI的廣泛影響需要更開放、更民主的公共治理模式,更像阿波羅登月計劃那樣,通過國家主導、民間協作、全社會參與的方式實現跨學科突破。否則,只會加劇公眾不信任,并激發全球對抗局勢,特別是在與中國的競爭中,美國并不具備算力與能源上的壓倒性優勢。

未來生命研究所(FLI)明確指出,AGI競賽本質上是一場“自殺性競賽”,曼哈頓計劃式的做法建立在對AGI本質的誤解之上。他們強調,目前全球頂尖AI專家普遍認為我們無法預測、無法控制超級智能,也無法確保其價值觀與人類一致。FLI呼吁應停止以軍事控制為目標的AGI競賽,轉而建設“顛覆性工具型AI”,用于強化工業、科研、教育、醫療與國防等具體領域。

RAND智庫則指出,以曼哈頓計劃為模型來構建AGI是戰略錯誤。他們建議應學習阿波羅計劃的路徑——這是一項全民參與、公開透明、強調社會福祉的工程。在阿波羅計劃中,美國不僅實現了登月,更推動了全民STEM教育、技術擴散與全球科學聲望。

基于這一理念,RAND提出了“阿波羅式AGI發展方案”,強調以下關鍵目標:

  1. 推動AI教育普及,讓中小企業、各行業廣泛接觸并運用AI;

  2. 聚焦民用價值,如個性化教育、醫療服務、政府治理;

  3. 投資多樣化研究,避免對某一架構(如Transformer)過度依賴;

  4. 強化AI安全測試與監管,防止關鍵模型被盜或誤用;

  5. 建設國家級數據基礎設施;

  6. 擴大清潔能源,特別是核能供給;

  7. 推動國際AI外交,避免中美軍備競賽式發展。

在更進一步的AI安全討論中,主張“AI 曼哈頓計劃”應轉為“AI安全曼哈頓計劃”的呼聲日漸高漲。許多AI研究者指出,目前的AI進展主要依賴“規模堆疊”,缺乏對“智能本質”的真正理解。當前對齊(alignment)問題仍未解決,即便擁有先進的技術,也難以確保AI行為符合人類價值。

真正的“對齊”不僅僅是讓AI變得“好聊”,而是確保其行為在現實世界中始終符合人類長期利益。這不僅是工程問題,更是哲學、倫理與制度設計的多重挑戰。

為了安全推進AGI,應加強如下工作:

  • 法規優先限制AGI原型與全自動研發系統;

  • 建立“緊急關機”機制(如總統紅鍵),并定期演練;

  • 推動國際條約,在全球GDP和人口門檻滿足時生效;

  • 動員基層公民教育與政策倡導,推動AI立法。

在治理方面,“對齊”不僅是技術難題,更是哲學命題。目前AI仍處于“前科學”階段,我們尚未清楚為何它們有效,只是觀察到它們有效。要制定治理規則,首先必須解決“可理解性”問題,即我們能否對智能、代理、意識等核心概念進行明確定義?如果不能,那么所謂“監管”只能依靠模糊直覺,這在法律上是非常危險的。然而,治理并非完全無望,我們已成功制定過欺詐、誹謗等復雜問題的法律框架。關鍵在于,從現在開始監管AI的“前兆特征”:大算力、自動研發能力、無關閉開關的系統等。

解決之道在于建立“可糾正性”(corrigibility)、“目標對齊”(intent alignment)、“強制控制”以及“權力約束”四重機制。當前社交平臺治理的失敗已經證明,即便是人類主導的科技企業,我們都難以施加有效監管,更何況面對一個遠超人類的AGI?監管的“古德哈特定律”效應(即衡量指標一旦變成目標就會失效)也提醒我們,監管需要不斷迭代與演進。

最終,要想在AGI領域贏得真正的“勝利”,需要超越眼前的技術競賽,建立基于“倫理人本主義”的社會共識。這包括:提升全民AI素養,推動全球范圍內的治理實驗、國家級AI緊急預案、建立關鍵AI集群“關閉機制”、簽署多邊協議、強調司法透明,并廣泛吸納各行業、各階層的聲音。更重要的是,要喚醒公眾參與——研究顯示,在全球范圍內,公眾對AI帶來“生存風險”的擔憂正在快速增長。這種廣泛的焦慮并非“泡沫”,而是對我們未來的真切關切。

AGI的未來不是不可控的神話,也不是簡單的工具革命,而是一次關于“人類如何面對自身極限”的時代大考。我們仍然有機會選擇不同的路徑—— 是走向封閉、高危、少數掌權的科技獨裁?還是走向開放、安全、公正、全民共享的AI未來?答案掌握在我們手中。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/913903.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/913903.shtml
英文地址,請注明出處:http://en.pswp.cn/news/913903.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

音頻信號的預加重:提升語音清晰度

一、預加重介紹預加重是一種信號處理技術,主要用于增強音頻信號中的高頻成分。由于人類語音的頻譜特性,尤其是在輔音和音調的表達上,高頻成分對于語音的清晰度至關重要。然而,在錄音和傳輸過程中,這些高頻成分往往會受…

WebSocket實戰:實現實時聊天應用 - 雙向通信技術詳解

目錄一、WebSocket:實時通信的"高速公路"1.1 HTTP的短板:永遠的"單相思"1.2 WebSocket的優勢:真正的"雙向對話"二、30分鐘搭建聊天服務器2.1 環境準備2.2 WebSocket配置類2.3 核心消息處理器三、前端實現&…

宏集案例 | 基于CODESYS的自動化控制系統,開放架構 × 高度集成 × 遠程運維

??案例概況客戶:MACS Sterilisationsanlagen GmbH(Ermafa Environmental Technologies GmbH 旗下) 應用場景:醫療與感染性廢棄物的無害化處理控制系統應用產品:宏集Berghof高性能控制器設備(一&#xff0…

學習JNI 二

創建一個名為Learn1項目(Android Studio)。一、項目結構二、配置 build.gradlebuild.gradle.kts(:app)plugins {alias(libs.plugins.android.application)alias(libs.plugins.jetbrains.kotlin.android) }android {namespace "com.demo.learn1&quo…

基于Spring Boot+Vue的DIY手工社預約管理系統(Echarts圖形化、騰訊地圖API)

2.10 視頻課程管理功能實現2.11手工互動(視頻彈幕)2.8預約設置管理功能實現🎈系統亮點:Echarts圖形化、騰訊地圖API;文檔包含功能結構圖、系統架構圖、用例圖、實體屬性圖、E-R圖。一.系統開發工具與環境搭建1.系統設計…

leetcode 每日一題 1353. 最多可以參加的會議數目

更多技術訪問 我的個人網站 (免費服務器,沒有80/443端口) 1353. 最多可以參加的會議數目 給你一個數組 events,其中 events[i] [startDayi, endDayi] ,表示會議 i 開始于 startDayi ,結束于 endDayi 。 …

AI+智慧園區 | 事件處置自動化——大模型重構園區治理邏輯

在智慧園區的建設浪潮中,事件管理一直是園區高效運營的關鍵環節。考拉悠然所推出的大模型 智慧園區解決方案,在事件智能閉環管理方面獨樹一幟,為園區的日常運營編織了一張嚴密、高效、智能的管理網絡,實現了從事件感知到處置的全…

FFmpeg Windows安裝

FFmpeg 用于音頻文件轉換 Builds - CODEX FFMPEG gyan.dev ffmpeg-release-full.7z 下載完成之后 zip解壓 大概就是 ffmpeg/ └── bin/ └── ffmpeg.exe 配置環境變量 ffmpeg -version 有可能idea還是找不到命令 就把命令路徑寫在程序里 例如

【2025/07/10】GitHub 今日熱門項目

GitHub 今日熱門項目 🚀 每日精選優質開源項目 | 發現優質開源項目,跟上技術發展趨勢 📋 報告概覽 📊 統計項📈 數值📝 說明📅 報告日期2025-07-10 (周四)GitHub Trending 每日快照&#x1f55…

JVM 基礎 - JVM 內存結構

前言 本文主要對JVM 內存結構進行講解,注意不要和Java內存模型混淆了。 運行時數據區 內存是非常重要的系統資源,是硬盤和 CPU 的中間倉庫及橋梁,承載著操作系統和應用程序的實時運行。JVM 內存布局規定了 Java 在運行過程中內存申請、分配…

【案例】二手車交易價格預測-472

二手車交易價格預測 數據來源數據特征探索構建模型參考數據來源 天池 https://tianchi.aliyun.com/competition/entrance/231784/information 數據特征探索 目標特征工程做好之后,能同時進行 lightgbm catboost 神經網絡等模型,所以盡量都轉換為數值類特征。 如果僅僅是使用…

【Spring】Java SPI機制及Spring Boot使用實例

目錄 一、SPI是什么 1.1 SPI 和 API 有什么區別? 二、使用場景 三、使用介紹 四、Spring Boot實例運用 五、總結 一、SPI是什么 SPI全稱Service Provider Interface,是Java提供的一套用來被第三方實現或者擴展的API,它可以用來啟用框架…

多維度數據資產測繪技術在安全管控平臺中的應用實踐

一、數據資產治理困境:從 “黑箱” 到 “可見性” 的行業挑戰在數字化轉型加速的當下,企業數據資產呈現爆發式增長,而傳統資產梳理手段因維度單一、時效性差,導致 “資產黑箱” 問題頻發。某省級運營商曾在安全評估中發現&#xf…

搭建react18+項目過程中遇到的問題(vite)

問題1. 頁面中使用import.meta.env獲取環境變量有紅色波浪線提示錯誤按提示給ts.config.ts文件中的compilerOptions增加了"module": “esnext” (es2020 | es2022 | system)這幾個也不行 但是另一個問題出現了安裝的第三方庫引入報錯了 按照提示我們將module改成了’…

Linux epoll簡介與C++TCP服務器代碼示例

Linux epoll 簡介與示例 TCP 服務器 1. 為什么要用 epoll select/poll 每次調用都把全部文件描述符從用戶態拷貝到內核態,隨連接數增長而線性變慢;epoll 采用事件驅動+就緒隊列的方式,內核只把“已就緒”的描述符返回給用戶態,O(1) 規模擴展;支持 邊沿觸發 Edge-Triggere…

IPv4和IPv6雙棧配置

根據IPv6的學習,完成以下一個簡單的雙棧配置案例,具體結構如下圖所示。PC1的 IPv4:192.168.2.1/24 、IPv6:2001:db8:2::2/64,PC2的 IPv4:192.168.3.1/24 、IPv6:2001:db8:3::2/64總共需要兩臺PC…

Robyn高性能Web框架系列08:使用 Rust 擴展 Robyn

使用 Rust 擴展 RobynPyO3 Bridge示例:一個簡單的Rust擴展1、安裝必須的組件2、初始化Rust項目3、編寫Rust代碼4、在Robyn中使用Rust代碼在“Robyn高性能Web框架系列07:多進程、性能調優”一節中,我們講解了Robyn豐富的性能調優方式&#xff…

利用Pandas進行條件替換與向前填充

目錄一、需求二、實現代碼案例代碼詳細解釋1. 導入庫和創建數據2. 條件替換與填充a. 條件掩碼 - mask()b. 向前填充 - ffill()c. 類型轉換 - astype(int)3. 打印結果三、實際應用場景四、可能的變體五、總結一、需求 示例數據: 項 目 0 1 0 1 0 1 2 0 2 3 …

springboot數據脫敏(接口級別)

文章目錄自定義脫敏注解脫敏注解接口脫敏注解反射AOP實現字段脫敏切面定義脫敏策略脫敏策略的接口電話號碼脫敏策略郵箱脫敏不脫敏姓名脫敏身份證號脫敏JacksonAOP實現脫敏定義序列化序列化實現脫敏切面定義JacksonThreadLocal攔截器實現脫敏定義ThreadLocal自定義序列化序列化…

Spring核心原理的快速入門:快速了解IoC與DI

IoC IoC:Inversion of Control(控制反轉) Spring是一個包含了眾多工具的IoC容器(即bean:spring管理的對象),也就是說Spring 是一個“控制反轉”的容器。 之前是對象本身管理自己的生命周期等等,現在交給spring來管理對象的生命周期 IoC介紹 …