OpenAI推出開源GPT-oss-120b與GPT-oss-20b突破性大模型,支持商用與靈活部署!

模型介紹

圖片

OpenAI再次推出開源模型,發布了兩款突破性的GPT-oss系列大模型,即GPT-oss-120bGPT-oss-20b,為AI領域帶來了巨大的創新和發展潛力。這兩款模型不僅在性能上與現有的閉源模型媲美,而且在硬件適配性上具有明顯優勢,為開發者和企業提供了新的應用場景和商業機會。

一、兩款模型的參數與性能特點

OpenAI這次開源的兩款大模型各有特色,針對不同硬件配置和應用需求提供了解決方案。

圖片

模型參數量架構激活參數量性能特點硬件要求
GPT-oss-120b

1170億

MoE(專家混合)架構

51億

- 在Codeforces競賽編程和MMLU通用知識測試中超越o3-mini

- 單張80GB H100 GPU上運行,甚至高端游戲本可基本運行

- 在醫療健康(HealthBench)和競賽數學(AIME 2025)領域表現優于閉源的o4-mini

GPT-oss-20b

210億

常規架構

36億

- 在M3 Pro芯片的MacBook Pro上,以23.72 token/秒生成貪吃蛇游戲代碼,性能接近o3-mini

- 僅需16GB內存設備即可驅動,適用于MacBook Pro、新款安卓手機等低配置設備

通過采用MoE架構,OpenAI成功實現了“參數規模”與“運行效率”的平衡,拓展了大模型的應用場景。

二、Apache 2.0 許可:商用與修改的寬松條件

與模型性能同樣值得關注的是開源許可條款。此次發布的兩款模型均采用Apache 2.0許可證,這意味著企業可以自由商用、修改代碼并進行二次分發,無需公開修改后的源代碼。相比Meta的Llama 3(限制非商業使用),Apache 2.0許可為企業商用提供了更為寬松的條件。不過需要注意的是,模型的訓練數據并未公開,盡管如此,開發者仍可基于現有模型進行微調與部署。

三、生態支持:多方合作助力推廣

為進一步推廣開源模型,OpenAI已與多個技術合作伙伴達成合作,推動模型應用的廣泛部署。

  • 合作伙伴:Azure、AWS、Hugging Face、Ollama、NVIDIA等20多家企業。

  • 模型下載與部署:開發者可以通過Hugging Face

    下載模型權重,并在Ollama進行本地部署;微軟還推出了Windows GPU優化版,支持AMD蘋果M系列芯片的原生運行。

  • 離線能力:即使在斷網環境下,模型仍能調用本地工具(如Python解釋器)進行任務生成、數據運算等操作。

四、存在的爭議:幻覺率與安全風險

盡管GPT-oss系列模型在硬件適配和性能上表現出色,但仍存在一些問題需要改進。

  • 幻覺率問題:在PersonQA

    測試中,120b模型的錯誤信息比例高達49%,是o1模型的三倍,這對醫療、法律等要求高精度的場景來說是一個潛在的挑戰。

  • 安全風險:由于Apache 2.0

    的商用權限較寬松,可能會被濫用于生成垃圾信息或惡意代碼。OpenAI表示已經進行過多輪安全測試,但仍無法完全避免濫用情況的發生。

盡管如此,這一開源舉措無疑為AI行業注入了新的活力,打破了部分AI技術的壟斷格局,促進了技術的快速發展。

結語:為開發者與企業提供更多選擇

對于開發者而言,GPT-oss-20b模型可以幫助打造本地AI助手,提升工作效率;對于企業,GPT-oss-120b模型則為構建專屬大模型提供了可行的解決方案。這兩款模型為不同需求的用戶提供了新的選擇和機遇,推動AI領域向更廣泛的應用場景發展。

詳細信息與技術資源請訪問:

GitHub 地址:https://github.com/openai/gpt-oss

hugging face 地址:https://huggingface.co/openai/gpt-oss-20b

hugging face 地址:https://huggingface.co/openai/gpt-oss-120b

modelscope地址:https://modelscope.cn/models/openai-mirror/gpt-oss-20b/summary

modelscope地址:https://modelscope.cn/models/openai-mirror/gpt-oss-120b/summary

ollama 可視化下載模型方法

Ollama 與 OpenAI 合作,將其最新的先進開放權重模型引入 Ollama。20B和120B這兩個模型帶來全新的本地聊天體驗,專為強大的推理能力、代理任務和多樣化的開發者用例而設計。

功能亮點

  • Agentic 功能:

    使用模型的原生功能進行函數調用、網頁瀏覽(Ollama 提供內置網頁搜索,可以選擇啟用該功能以使用最新信息擴充模型)、python 工具調用和結構化輸出。

  • 完整的思路:

    ?完全訪問模型的推理過程,從而更輕松地進行調試并增強對輸出的信任。

  • 可配置的推理力度:

    根據您的具體用例和延遲需求輕松調整推理力度(低、中、高)。

  • 可微調:

    ?通過參數微調完全根據您的特定用例定制模型。

  • 寬松的 Apache 2.0 許可證:

    自由構建,不受版權限制或專利風險 - 非常適合實驗、定制和商業部署。

量化 - MXFP4 格式

OpenAI 利用量化技術來減少 gpt-oss 模型的內存占用。這些模型在訓練后會將混合專家 (MoE) 權重量化為 MXFP4 格式,其中每個參數的權重被量化為 4.25 位。MoE 權重占總參數數量的 90% 以上,將這些權重量化為 MXFP4 格式后,較小的模型可以在內存低至 16GB 的系統上運行,而較大的模型則可以在單個 80GB 的 GPU 上運行。

Ollama 原生支持 MXFP4 格式,無需額外量化或轉換。Ollama 的新引擎已開發新內核,以支持 MXFP4 格式。

Ollama 與 OpenAI 合作,根據他們的參考實現進行基準測試,以確保 Ollama 的實現具有相同的質量。

20B參數模型

圖片

gpt-oss-20b模型專為低延遲、本地或特殊用例而設計。

120B參數模型

圖片

gpt-oss-120b該模型專為生產、通用、高推理用例而設計。

NVIDIA 與 Ollama 合作在 GeForce RTX 和 RTX PRO GPU 上加速 gpt-oss

圖片

NVIDIA 和 Ollama 正在深化合作,以提升 NVIDIA GeForce RTX 和 RTX PRO GPU 上的模型性能。此次合作使使用 RTX 的 PC 用戶能夠精準地利用 OpenAI 的 gpt-oss 模型的功能。

我們將繼續與 Ollama 合作,并不斷改進。未來,我們將發布一篇關于該模型的深入工程文章。

開始

1、下載最新的 Ollama 版本

2、安裝模型

圖片

3、使用教程

圖片

該模型可以直接在 Ollama 的新應用程序中或通過終端下載:

ollama 運行 gpt-oss:20b

ollama 運行 gpt-oss:120b

ollama卸載方法

https://www.uied.cn/circle/85234.html

寫在??最后

AI資料

AI學習平臺 uied.cn

AI免費工具 uiedtool.com

AI資訊熱榜 hot.uied.cn?

AI工具導航 hao.uied.cn/ai

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/94705.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/94705.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/94705.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

【Unity Plugins】使用ULipSync插件實現人物唇形模擬

一、下載插件ULipSync: 1. 進入Github網址:https://github.com/hecomi/uLipSync/releases/tag/v3.1.4 2. 點擊下載下方的unitypackage 3. 安裝使用ULipSync的相關的插件 發行者也提到了,在使用的時候需要在Package Manager里安裝Unity.B…

基于 Transformer-BiGRU GlobalAttention-CrossAttention 的并行預測模型

1 背景與動機 在高頻、多尺度且非平穩的時序場景(如新能源產能預測、金融行情、用戶行為流分析)中,單一網絡分支 往往難以同時捕獲 長程依賴(Transformer 長距離建模優勢) 局部細粒信息(循環網絡對短期波動敏感) 將 Transformer 與 雙向 GRU(BiGRU) 以并行支路組合…

大模型與Spring AI的無縫對接:從原理到實踐

摘要:本文系統梳理了大模型知識,以及與Spring AI的集成方案,涵蓋本地部署、云服務、API調用三種模式的技術選型對比。通過DeepSeek官方API示例詳解Spring AI的四種開發范式(純Prompt/Agent/RAG/微調),并提供…

linux下實現System V消息隊列實現任意結構體傳輸

以下是一個實現&#xff0c;可以發送和接收任意類型的結構體消息&#xff0c;而不僅限于特定的CustomMsg類型&#xff1a;#include <stdio.h> #include <stdlib.h> #include <string.h> #include <sys/ipc.h> #include <sys/msg.h> #include <…

TCP的三次握手和四次揮手實現過程。以及為什么需要三次握手?四次揮手?

三次握手和四次揮手的實現原理&#xff0c;以及為什么要這樣設計&#xff1f;三次握手的實現三次握手的核心角色與參數三次握手的具體步驟第一步&#xff1a;客戶端 → 服務器&#xff08;發送 SYN 報文&#xff09;第二步&#xff1a;服務器 → 客戶端&#xff08;發送 SYNACK…

Java開發時出現的問題---架構與工程實踐缺陷

除語言和并發層面&#xff0c;代碼設計、工程規范的缺陷更易導致系統擴展性差、維護成本高&#xff0c;甚至引發線上故障。1. 面向對象設計的常見誤區過度繼承與脆弱基類&#xff1a;通過繼承復用代碼&#xff08;如class A extends B&#xff09;&#xff0c;會導致子類與父類…

項目評審管理系統(源碼+文檔+講解+演示)

引言 在當今快速發展的商業環境中&#xff0c;項目評審和管理是確保項目成功的關鍵環節。項目評審管理系統作為一種創新的數字化工具&#xff0c;通過數字化手段優化項目評審和管理的全流程&#xff0c;提高項目管理效率&#xff0c;降低風險&#xff0c;提升項目成功率。本文將…

ComfyUI 安裝WanVideoWrapper

目錄 方法2&#xff1a;通過 ComfyUI-Manager 安裝 方法3&#xff1a;手動下載并解壓 測試代碼&#xff1a; WanVideoWrapper 方法2&#xff1a;通過 ComfyUI-Manager 安裝 在 ComfyUI 界面頂部找到 Manager&#xff08;管理器&#xff09;選項。 進入 Install Custom Nod…

react合成事件大全,如onClick,onDrag

1. 鼠標事件onClick - 點擊事件onContextMenu - 右鍵菜單事件onDoubleClick - 雙擊事件onDrag - 拖拽事件onDragEnd - 拖拽結束事件onDragEnter - 拖拽進入目標區域事件onDragExit - 拖拽離開目標區域事件onDragLeave - 拖拽離開事件onDragOver - 拖拽懸停事件onDragStart - 拖…

從《中國開源年度報告》看中國開源力量的十年變遷中,Apache SeaTunnel 的躍遷

如果把開源世界比作一條奔涌的大河&#xff0c;過去十年里&#xff0c;中國開發者已經從“岸邊試水”變成了“中流擊水”。在最近落下帷幕的 Community Over Code Asia 2025&#xff0c;華東師范大學教授王偉老師基于《中國開源年度報告》進行的一場分享&#xff0c;用一組數字…

JAVA 程序員cursor 和idea 結合編程

cursor 是基于vscode改良而來的&#xff0c;外加上Claude大語言模型而產生的AI編輯器&#xff0c;市面上也有阿里的靈碼qianwen3-coder大語言模型。我個人電腦還是喜歡用idea集成靈碼插件開發。但是也稍微介紹下習慣idea的人只是使用cursor代碼生成的話&#xff0c;這有個小妙招…

查看部署在K8S服務的資源使用情況

要查看 Pod中 server 的資源使用情況&#xff08;CPU 和內存&#xff09;&#xff0c;你需要使用 Kubernetes 的監控工具。最常用的是 kubectl top 命令。? 方法一&#xff1a;使用 kubectl top&#xff08;推薦&#xff09; 1. 查看 Pod 的 CPU 和內存使用 kubectl top pod s…

uni-app vue3 小程序接入 aliyun-rtc-wx-sdk

安裝依賴&#xff1a; npm install aliyun-rtc-wx-sdk crypto-jsuni-app&#xff0c;新建一個頁面&#xff0c;粘貼以下代碼 在阿里云實時音視頻補充appId、appKey即可&#xff0c; <template><view class"container"><!-- 用戶輸入區域 --><vi…

Java技術棧/面試題合集(3)-Java并發篇

場景 Java入門、進階、強化、擴展、知識體系完善等知識點學習、性能優化、源碼分析專欄分享: Java入門、進階、強化、擴展、知識體系完善等知識點學習、性能優化、源碼分析專欄分享_java高級進階-CSDN博客 通過對面試題進行系統的復習可以對Java體系的知識點進行查漏補缺。…

[AI 生成] Spark 面試題

spark 基礎問題面試題以下是 Spark 基礎面試題的全面梳理&#xff0c;涵蓋核心概念、架構原理和編程模型&#xff0c;幫助快速掌握高頻考點&#xff1a;一、核心概念1. Spark 核心組件組件作用Driver執行 main() 方法&#xff0c;調度任務&#xff0c;管理集群資源Executor在 W…

MySQL的DML增刪改操作:

目錄 添加數據&#xff1a; 方式1&#xff1a;一條一條添加數據&#xff1a; 方式2&#xff1a;將查詢結果插入到表中&#xff1a; 更新數據&#xff1a; 刪除數據&#xff1a; MySQL8的新特性&#xff1a;計算列&#xff1a; 本文介紹了MySQL數據庫操作語言(DML)的基本使…

MySQL運維常用語法速查

&#x1f5c3;? 一、數據庫操作 CREATE DATABASE db_name; USE db_name; DROP DATABASE db_name; SHOW DATABASES;&#x1f517; 官方文檔 &#x1f4ca; 二、表操作 表創建示例 CREATE TABLE users (id INT AUTO_INCREMENT PRIMARY KEY,name VARCHAR(50) NOT NULL,email V…

汽車以太網通信協議——SOME/IP

1. 背景 SOME/IP是一種汽車中間件解決方案&#xff0c;其全稱是Scalable Service-Oriented Middleware over IP&#xff0c;即位于 IP 協議層以上的一種面向服務的可擴展的中間件。 中間件&#xff1a;該術語起源于復雜的軟件系統開發&#xff0c;用以實現軟件組件之間的數據交…

什么是負載均衡,有哪些常見算法?

文章目錄1.什么是負載均衡2.負載均衡的分類2.1 二層負載均衡2.2 三層負載均衡2.3 四層負載均衡2.4 七層負載均衡3.負載均衡工具3.1 LVS3.2 Nginx3.3 HAProxy4.常見負載均衡算法5.面試回答模板1.什么是負載均衡 為了提升web應用的各方面能力&#xff0c;我們一般會把多臺機器組…

PyTorch 核心三件套:Tensor、Module、Autograd

歡迎來到啾啾的博客&#x1f431;。 記錄學習點滴。分享工作思考和實用技巧&#xff0c;偶爾也分享一些雜談&#x1f4ac;。 有很多很多不足的地方&#xff0c;歡迎評論交流&#xff0c;感謝您的閱讀和評論&#x1f604;。 目錄引言1 Tensor1.1 &#x1f6e0;?Tensor 的核心用…