??每周跟蹤AI熱點新聞動向和震撼發展 想要探索生成式人工智能的前沿進展嗎?訂閱我們的簡報,深入解析最新的技術突破、實際應用案例和未來的趨勢。與全球數同行一同,從行業內部的深度分析和實用指南中受益。不要錯過這個機會,成為AI領域的領跑者。點擊訂閱,與未來同行! 訂閱:https://rengongzhineng.io/
上周,馬克·扎克伯格宣布,Meta的目標是實現“比人類更聰明的人工智能”。他似乎已經有了實現這一目標的“配方”,而第一種關鍵原料就是人類人才。據報道,扎克伯格曾試圖以九位數的薪酬吸引頂尖研究人員加入Meta超級智能實驗室。第二種原料則是人工智能本身。扎克伯格在一次財報電話會議上表示,Meta超級智能實驗室將專注于打造能夠自我提升的AI系統——這些系統可以自我引導,不斷提升性能。
自我改進的可能性讓人工智能區別于其他革命性技術。比如,CRISPR基因編輯無法自己提升DNA序列靶向能力,核聚變反應堆也不能自行找到商業化的突破口。但大型語言模型(LLM)卻能優化運行所依賴的計算芯片、廉價高效地訓練其他LLM,甚至可能提出全新的AI研究思路。在這些領域,AI已經取得了不小的進展。
扎克伯格認為,AI的自我提升可能會帶來一個人類擺脫日常瑣事、在超高效智能伙伴的支持下追求更高目標的世界。然而,非營利AI研究機構METR的政策主管克里斯·佩因特(Chris Painter)警告說,自我改進也伴隨著根本性風險。如果AI能夠加速自身能力發展,它可能會迅速提升黑客攻擊、武器設計和操縱人類的能力。一些研究人員甚至推測,這種正反饋循環可能導致所謂的“智能爆炸”,即AI在短時間內將自身能力提升到遠超人類的水平。
即便不是最悲觀的預測者,也不得不認真對待自我改進AI的潛在影響。OpenAI、Anthropic和谷歌在各自的AI安全框架中,都提到了自動化AI研究這一概念,與化學武器、網絡安全等熟悉的風險類別并列。英屬哥倫比亞大學計算機科學教授、谷歌DeepMind高級研究顧問杰夫·克魯恩(Jeff Clune)指出:“我認為這是通往強大AI的最快路徑,可能是我們最應該關注的事情。”
克魯恩同時表示,自動化AI研發也可能帶來巨大好處。單憑人類,可能無法想到那些能讓AI有朝一日解決癌癥、氣候變化等巨大難題的創新與改進。
目前,人類的創造力仍然是AI進步的主要引擎,否則Meta也不會用如此高昂的待遇去吸引研究人員進入其超級智能實驗室。但AI已經開始參與自身的研發過程,而且在未來幾年中,這種參與度有望進一步增加。以下是AI正在“讓自己變得更好”的五種方式。
1. 提升生產力
目前,LLM對AI研發最重要的貢獻或許也是最平凡的:編程輔助。“最大作用就是編程幫助。”AI研究機構Forethought的高級研究員湯姆·戴維森(Tom Davidson)表示。像Claude Code和Cursor這樣的工具能幫助工程師更快地編寫代碼,已在AI行業廣受歡迎。谷歌CEO桑達爾·皮查伊(Sundar Pichai)在2024年10月透露,公司四分之一的新代碼由AI生成。Anthropic也記錄了其員工使用Claude Code的多種方式。如果工程師因此提高了生產效率,就能更快設計、測試和部署新的AI系統。
然而,這些工具的生產力優勢仍有待驗證。如果工程師花大量時間糾正AI的錯誤,那么即使手動寫代碼的時間減少,整體效率也未必提高。METR最近的一項研究發現,經驗極其豐富的開發人員在使用AI編程助手時,完成任務的時間反而延長了約20%。不過,研究聯合負責人內特·拉什(Nate Rush)強調,該研究針對的是在大型代碼庫上工作的資深開發者,結論未必適用于那些只是寫簡短腳本來跑實驗的AI研究人員。
在前沿實驗室中開展類似研究,可能更清楚地揭示編程助手是否真的能提升頂尖AI研究人員的生產效率。但目前,這樣的研究尚未開展。同時,僅憑軟件工程師的主觀感受并不可靠——METR的研究對象雖然覺得AI編程工具讓自己更高效,實際卻被顯著拖慢了速度。
2. 優化基礎設施
如果運行代碼需要等待數小時、數天甚至數周,再快的編寫速度也無濟于事。LLM訓練尤其緩慢,而最先進的推理模型生成一次響應就可能需要幾分鐘。這些延遲是AI研發的重大瓶頸。斯坦福大學計算機科學助理教授、谷歌DeepMind高級科學家阿扎利婭·米爾霍賽尼(Azalia Mirhoseini)表示:“如果我們能讓AI運行得更快,我們就能更快創新。”
早在2021年,米爾霍賽尼和谷歌的同事就構建了一個非LLM AI系統,用來優化芯片組件布局,從而提升效率。盡管有研究者未能復現其結果,米爾霍賽尼表示,《自然》雜志已對論文進行調查并確認其有效性,而且谷歌確實在多代自研AI芯片設計中采用了該系統的成果。
最近,她將LLM應用于芯片內核(kernel)編寫——這些低層函數決定了矩陣乘法等操作的執行方式。結果顯示,即便是通用LLM,有時也能寫出比人類版本更快的內核。
谷歌的另一支團隊開發了名為AlphaEvolve的系統,用Gemini LLM生成解決問題的算法,對算法進行評估,并反復迭代改進。AlphaEvolve設計了一種新的數據中心運行方法,為谷歌節省了0.7%的計算資源,還改進了定制芯片設計,并開發出一個讓Gemini訓練速度提升1%的新內核。
雖然1%的提升看似微小,但在谷歌這樣的大公司,這意味著巨大的時間、資金和能源節約。AlphaEvolve項目負責人馬泰·巴洛格(Matej Balog)指出,該系統目前只優化了Gemini訓練流程的一個小環節,若更廣泛應用,節省空間會更大。
3. 自動化訓練
LLM以數據“胃口大”著稱,訓練成本高昂。在某些領域(如冷門編程語言),現實世界數據稀缺,難以有效訓練LLM。人類反饋強化學習(RLHF)是訓練LLM符合人類標準的關鍵技術,但獲取人類反饋既慢又貴。
如今,LLM正被用于填補這一空白。只要提供足夠示例,LLM就能在未訓練過的領域生成可信的合成數據,用于模型訓練。在“LLM評判者”(LLM as a judge)方法中,由LLM而非人類來評估模型輸出,這也是Anthropic在2022年提出的“憲法AI”框架的核心。
數據稀缺對AI智能體尤其是難題,因為高效的智能體必須能執行多步計劃,而這種完整成功案例在網上極少。為此,米爾霍賽尼團隊嘗試讓一個LLM智能體生成任務分步方案,由另一個LLM評判每步有效性,再用這些步驟訓練新的智能體。“數據不再是限制,因為模型可以無限生成新的經驗。”她表示。
4. 完善智能體設計
在LLM自身架構設計方面,AI貢獻尚不顯著。如今的LLM都基于2017年人類提出的Transformer結構,后續改進也由人類完成。但LLM智能體的興起開辟了新的設計空間,尤其是與外部世界交互的工具和使用指令的優化。
克魯恩與Sakana AI研究人員共同開發了“達爾文-哥德爾機”(Darwin G?del Machine)——一種能迭代修改自身提示詞、工具及代碼以提升任務表現的LLM智能體。它不僅通過自我修改獲得更高分,還能發現原始版本無法找到的新改進,實現了真正的自我改進循環。
5. 推動科研
盡管LLM加快了研發流程的諸多環節,人類或許仍將在相當長時間內主導AI科研。許多專家認為,科研“品味”——即挑選有前景研究方向的能力——是AI面臨的重大挑戰。
但克魯恩認為,這一挑戰未必如想象般大。他與Sakana AI正在研發名為“AI科學家”的端到端科研系統,能自主在文獻中尋找研究問題、運行實驗并撰寫論文。今年早些時候,該系統提出并測試了一種新的訓練策略,旨在讓神經網絡更好地組合訓練數據中的示例,論文匿名提交至國際機器學習大會(ICML)某研討會,并獲得足夠高的評分進入錄取范圍(盡管研討會的錄取標準低于主會)。另一次,該系統的科研想法后來被一位人類研究者獨立提出,并在社交平臺上引發關注。
克魯恩表示:“我們正處在AI科學家的GPT-1時刻。幾年后,它將撰寫能被頂級期刊和會議接收的論文,甚至作出全新的科學發現。”
超級智能會很快到來嗎?
隨著對AI自我提升的熱情不斷高漲,未來數月乃至數年,AI在自身發展中的作用可能會越來越大。扎克伯格認為,這意味著超越人類能力的超級智能模型或許就在眼前。然而,現實中自我提升AI的影響尚不確定。
例如,AlphaEvolve確實讓核心LLM系統Gemini的訓練速度提升了1%,但這未必會顯著加快谷歌的AI進展。巴洛格指出:“這是一個非常緩慢的反饋循環。Gemini的訓練周期很長,所以目前只是看到這種良性循環的開端。”
如果每一代Gemini都能在訓練速度上再加1%,這種加速效應會復利增長。而且隨著能力提升,每一代都可能帶來更大的速度提升及其他自我優化方法。在這種情況下,超級智能支持者認為“智能爆炸”似乎不可避免。
然而,這種推論忽略了一個關鍵事實:創新會隨著時間變得更加困難。任何科學領域的早期階段,發現往往來得又快又容易;而隨著深度學習科學的成熟,額外改進可能需要投入更多人力和AI協作。等到AI達到人類水平的科研能力時,可能“容易摘的果子”已經被人類和弱AI摘光。
因此,準確評估AI自我提升的實際影響非常困難。更棘手的是,最關鍵的AI系統——那些在前沿公司內部使用的——往往比公開發布的版本更先進,外部研究者難以直接判斷內部情況。
即便如此,外部研究者仍在努力,例如通過監測AI完成任務的速度來推測發展趨勢。METR的研究顯示,自2019年GPT-2發布以來,AI能獨立完成的任務長度大約每7個月翻一倍;自2024年以來,這一倍增周期縮短為4個月,表明AI發展確實在加速。這一加速可能源于充足的投資,也可能部分得益于AI的自我提升。
戴維森表示,METR的研究暗示,目前低垂果效尚未顯著拖慢人類研究速度,或者說投資增長抵消了減速。如果AI顯著提升人類研究人員的生產力,甚至直接接手部分研究工作,那么研究加速的天平將進一步傾向于AI一方。“完全可以預期會有一段時間,AI進展會加快,”戴維森說,“關鍵問題是,這段加速會持續多久。”