1、OpenAI“Stargate”超級數據中心項目掀起美國各州爭奪戰
《華盛頓郵報》披露,OpenAI 與 Oracle、SoftBank 合作推進的“Stargate”項目(首期投資 1000?億美元,四年內總投資 5000?億美元)已收到超過 250 份選址提案,20?余州政府、經濟發展機構與土地所有者主動遞交用地及稅收優惠方案,以期承接巨型 AI 數據中心并獲得長期電力與就業紅利[1]。
OpenAI 全球事務副總裁 Chris?Lehane 形容該計劃將成為“新工業化催化劑”,公司承諾向落地州高校和公共機構提供免費算力與 AI 解決方案。分析人士指出,大規模 GPU 場站對水、電、光纖與變電容量要求極高,各州或面臨能源配給、環保審批與社區阻力三重挑戰。文章并對比 Amazon HQ2 競標教訓,提醒地方政府謹防“激進稅補”導致收益外流。[1]
2、Sam Altman 向 Elon Musk 公開“求和”:AGI 使命重于個人紛爭
印度主流科技媒體 India Today 報道,5?月?10?日清晨,馬斯克轉發一則 2016 年 Altman 批評特朗普的舊帖,引發網友再度圍觀兩人多年矛盾。
Altman 隨即在 X 連發貼文,自稱“彼此都曾犯錯”,并引用 2022 年《衛報》文章指出馬斯克亦曾反擊特朗普,最后寫道:“Anyway, see you next week, let’s be friends. AGI is too important to let a lil feud get in the way.” 業內解讀為對 2024 年馬斯克起訴 OpenAI 以來“法律與輿論戰”的降溫信號,也為兩家公司在 GPU 供應與安全基準上的潛在對話留出余地[2]。不過,Musk 暫未公開回應,雙方是否會在“AI 安全頂層框架”上合作仍待觀察。[2]
3、OpenAI Developers 深夜釋出 GPT?4.1 圖形推理示例:SVG“騎車鵜鶘”引熱議
OpenAI 官方開發者賬號 @OpenAIDevs 于北京時間凌晨 00:11 發布視頻,展示 GPT?4.1 生成的矢量圖 “pelican riding a bicycle” 及其思維鏈輸出[3]。
帖子強調 GPT?4.1 在約 1 美元的成本下即可批量生成 4000 幅圖形描述,并支持“thinking budget”參數細粒度控制推理成本。社區測試者反饋,新模型在保持速度與價格優勢的同時,SVG 結構完整度與對象語義一致性明顯高于 GPT?4o‐mini。該示例進一步驗證了“小規模思考+長上下文”理念:開發者可在低思考預算下先粗生成,再按需提高推理深度補充細節,從而優化多模態應用的性能?成本曲線。[3]
4、Anthropic API 于 PDT 5?月?9?日 22:51 出現 500 錯誤高峰,37 分鐘內修復
Anthropic Status Page 顯示,Claude 3.5 Haiku 與 3.7 Sonnet 在 API、Claude.ai 及 Console 層面同時出現請求異常,官方 22:51 發布“Investigating”,23:19 標記“Resolved”,全程 28 分鐘定位問題、9 分鐘監控確認恢復[4]。
此次故障與近期上線的 “cache?aware rate limit” 機制關聯度高:部分開發者報告在高并發流式調用中觸發新限流邏輯導致 500 返回碼。Anthropic 強調已調整限流閾值并新增指標監控,鼓勵用戶在 SDK 中捕獲重試窗口,以減少突發錯誤對生產環境的影響。[4]
5、Exa × Anthropic 發起“AI Nobel Prize Hackathon”——目標用 Claude 做科學發現
向量搜索初創 Exa AI 于 5?月?9?日 22:04(UTC)發布推文,宣布與 Anthropic、AWS Activate、Lightspeed Venture Partners 聯合舉辦 “AI Nobel Prize Hackathon”[5]。
主辦方將為入選團隊提供 5?萬 Token/M 策略額度、10?萬美元 AWS GPU 租賃券及 MCP(Model Context Protocol)實驗框架,鼓勵利用 Claude 3.x 系列模型在材料、藥物、數學猜想等領域產出可發表級別的原創成果。評審團包括諾貝爾獎獲得者與頂級期刊編輯,官方表示“若成果足夠突破,將協助投稿 Nature、Science” 。賽事定位“Agentic Research” 實驗場,也被視為驗證“大模型+小樣本+工具鏈”能否邁向自動化科學的重要風向標。[5]
6、NVIDIA 高管:GPU 已成 AI 研究“硬通貨”,Llama Nemotron 快速迭代靠內部“算力眾包”
Business Insider 獨家專訪披露,NVIDIA 應用研究副總裁 Jonathan Cohen 在公司內部播客中稱,“在任何 AI 實驗室,GPU 數量就是研究員的‘貨幣’”[6]。為在兩個月內推出面向推理系統的 Llama?Nemotron 模型家族,NVIDIA 各部門研究員主動讓出訓練配額,形成內部“Swarm”協作機制,按項目優先級動態重分配 H100 與 GH200 訓練集群。Cohen 指出,快速實驗?迭代?評估的閉環比單次大規模訓練更能提升模型 reasoning 能力;公司未來將把此工作流開放給 Inception 生態初創團隊。評論認為,這一模式折射出頂級芯片廠商從“賣 GPU”向“平臺級 AI 研發加速器”角色的戰略轉型。[6]
參考資料
[1] https://www.washingtonpost.com/technology/2025/05/10/stargate-openai-data-centers-states/
[2] https://www.indiatoday.in/trending-news/story/sam-altman-reacts-to-elon-musk-dig-at-old-trump-post-says-lets-be-friends-2722609-2025-05-10
[3] https://x.com/OpenAIDevs/status/1920995155366039707
[4] https://status.anthropic.com/incidents/j080x9g1v5pw
[5] https://twitter.com/ExaAILabs/status/1920963056315609129
[6] https://www.businessinsider.com/nvidia-researchers-training-artificial-intelligence-2025-5
以上為今日重點 AI 新聞,歡迎關注后續更新。