2025 年 6 月 30 日,百度如期兌現 2 月 14 日的預告,正式開源文心大模型 4.5(ERNIE 4.5)系列,涵蓋 10 款不同參數規模的模型,包括 470 億參數混合專家(MoE)模型、30 億參數 MoE 模型及 3 億參數稠密型模型,實現預訓練權重與推理代碼的完全開放。這一舉措標志著國內大模型技術向生態化、普惠化邁出關鍵一步。
開源矩陣與授權機制:兼顧商業應用與技術共享
文心大模型 4.5 系列基于 Apache License 2.0 許可發布,允許開發者進行商業使用,僅需遵守開源協議條款。此次同步開源的還有開發工具包 ERNIEKit,集成了從預訓練到部署的全流程工具:
- 支持監督微調(SFT)、低秩適應(LoRA)、直接偏好優化(DPO)等主流訓練技術;
- 提供量化訓練(QAT)、訓練后量化(PTQ)等壓縮方案,適配不同硬件環境。
開發者可通過飛槳星河社區、HuggingFace 平臺下載模型,百度智能云千帆大模型平臺同步提供 API 服務,降低企業接入門檻。值得關注的是,英特爾已第一時間完成對文心 4.5 端側模型的適配,實現其在酷睿 Ultra 平臺上的本地化部署,拓展了模型的應用場景。
三大技術創新:多模態融合與高效訓推突破
文心大模型 4.5 的性能提升源于三項核心技術創新:
- 多模態混合專家預訓練:通過文本與視覺模態聯合訓練,構建異構混合專家結構。結合多維旋轉位置編碼與專家正交性優化,使兩種模態相互促進,顯著提升文本生成、圖像理解及跨模態推理能力。
- 高效訓推框架:采用異構混合并行策略與多層級負載均衡技術,配合 FP8 混合精度訓練,大幅提升預訓練吞吐量;推理階段通過多專家協同量化算法,實現 4-bit/2-bit 近無損量化,結合動態預填充與解碼分離部署,優化資源利用率。
- 模態針對性后訓練:針對不同任務場景進行精細化調優 —— 語言模型聚焦通用理解與生成,多模態模型強化視覺 - 語言關聯,并支持 “思考模式”(強化推理)與 “非思考模式”(強化感知)切換,兼顧效率與能力。
評測表現:參數更優卻實現性能反超
在權威基準測試中,文心 4.5 系列展現出 “小參數、高性能” 的特點:
- 470 億參數模型(ERNIE-4.5-300B-A47B):在 28 項基準測試中的 22 項超越 DeepSeek-V3-671B,尤其在泛化能力、邏輯推理和知識密集型任務中優勢顯著;在 IFEval、SimpleQA 等指令遵循與知識類測試中排名業界第一。
- 210 億參數模型(ERNIE-4.5-21B-A3B):參數規模僅為 Qwen3-30B 的 70%,卻在 BBH(多任務基準)、CMATH(數學推理)等測試中表現更優,實現效率與性能的平衡。
- 多模態模型(ERNIE-4.5-VL):在 “思考模式” 下,MathVista、MMMU 等高難度視覺推理基準成績突出;“非思考模式” 則保持 CV-Bench 等感知任務的高準確率。輕量級 280 億參數版本相較于 Qwen2.5-VL 系列,在多數測試中性能相當甚至更優,且支持雙模式切換。
🌟?DMXAPI 全維度解決方案,重構 AI 開發體驗?🌟
🚀?多模型集成:一個密鑰開啟全球智能生態
- 只需1 個 API Key,即可無縫串聯?GPT、Claude、Gemini、Llama?等全球頂尖大模型,打破技術壁壘與平臺限制。
💰?財務合規:專業服務為商業落地護航
- 企業級合規支持:無論是企業用戶的項目采購,還是個人開發者的技術服務,均可提供正規發票,財務流程透明合規。
👉?登錄 DMXAPI 官網,體驗 “一個平臺管理所有 AI 能力” 的高效與便捷!
點擊鏈接:立即探索 DMXAPI