3月24日晚,DeepSeek低調發布其V3模型的小版本更新——DeepSeek V3-0324,這一操作立即在社區引發熱議。據悉,該版本已集成至DeepSeek官網、應用程序和小程序,用戶只需關閉“Deep Thinking”功能即可體驗。另該模型已在Hugging Face上開源,采用MIT許可證,支持商業使用。
這一版本延續了V3系列的混合專家(MoE)架構,總參數在671B至685B之間(具體數字待官方驗證),推理時僅激活37B參數。
技術亮點:效率與性能的雙重突破
1. 驚艷的硬件適配與推理速度
據VentureBeat報道,V3-0324在Mac Studio(M3 Ultra,512GB RAM)上運行4位量化版本時,可達到20 tokens/秒的推理速度,僅消耗200瓦功率。對比之下,OpenAI的GPT-4o依賴NVIDIA GPU集群,功耗動輒數千瓦。這種本地運行能力得益于模型體積優化(未量化641GB,量化后352GB)和FP8混合精度訓練,使其在消費級設備上也能高效運作。在NVIDIA RTX 4090上,INT8量化版本可能接近30-40 tokens/秒。
2. 代碼生成能力逼近頂級模型
據用戶反饋,V3-0324在編程任務中表現卓越,能生成700-800行無錯代碼,甚至一次性構建完整網站。據社交媒體,其在KCORES大模型競技場中以328.3分排名第三,僅次于Claude-3.7-Sonnet-Thinking和Claude-3.5,超越DeepSeek-R1。VentureBeat則將其與Claude 3.5 Sonnet相提并論,推測這一進步源于從R1模型蒸餾的優化技術。
3. 多領域能力提升
-
數學與推理:V3-0324的知識截止日期更新至2024年7月(較V3的2023年12月更進一步),數學能力顯著增強。雖非推理專屬模型,其表現已接近部分閉源巨頭。
-
通用性:V3-0324在前端設計(如生成海報)等創意任務中表現出色,顯示出超越傳統技術應用的潛力。
4. 核心技術驅動效率革命
V3-0324依托多頭潛在注意力(MLA)和多token預測(MTP)技術,支持128K token上下文窗口,生成效率較傳統單token預測提升近80%。MoE架構確保其低計算成本,有媒體強調其訓練費用僅550-600萬美元,遠低于GPT-4的數千萬美元。競爭已不再是“誰能構建最強AI”,而是“誰讓更多人用上AI”。
對行業的沖擊:OpenAI的“噩夢”?
有媒體分析,V3-0324是“OpenAI的噩夢”,原因有三:
-
成本顛覆:開源免費+低價API挑戰了閉源模型的高收費模式。
-
本地化優勢:20 tokens/秒的Mac Studio表現削弱了云服務的必要性。
-
性能競爭力:代碼和數學能力逼近GPT-4o和Claude 3.5,足以滿足大多數需求。
V3-0324在競技場排名超越部分閉源模型,顯示出開源AI的崛起潛力。若R2或V4突破推理和多模態,其影響力或超預期。當前,競爭已不再是“誰能構建最強AI”,而是“誰讓更多人用上AI”。