重磅!OpenAI正式开源GPT-OSS,OpenAI终于“Open”了

OpenAI首次开源GPT-OSS模型权重,普通电脑即可本地运行,兼容多平台,还支持链式思维和工具调用,模型性能直追闭源版本。

8月5日,OpenAI终于走出了闭源的围墙,公开发布了全新的GPT-OSS模型权重。这是继2019年GPT-2之后,时隔六年OpenAI第一次真正意义上“open”了大模型权重。无论是普通开发者,还是追求隐私与成本优化的企业,现在都能在自己的硬件上直接运行ChatGPT同源的AI模型。


GPT-OSS模型概览

这次放出的gpt-oss系列共两款:

  • gpt-oss-120b:约1170亿参数,采用MoE(专家混合)架构,推理和逻辑能力强大,专为高阶推理和生产部署设计。性能直逼OpenAI的o4-mini封闭模型。
  • gpt-oss-20b:210亿参数,适合本地化和专业场景。普通消费级显卡(16GB显存)或者稍高配置的笔记本,就能轻松运行。性能接近o3-mini。

两款模型都采用Apache 2.0许可证,允许自由商用,无需授权和付费,下载即可用。


性能与应用亮点

  • 链式思维(CoT)、工具调用能力,方便各种场景集成更复杂的自动化能力。
  • 支持本地私有部署,数据全流程自主可控,有效降低云依赖及隐私风险。
  • 性能评测显示,120b版在编程、数学、健康问答与工具调用等多方面,已经超过o3-mini,并与o4-mini不相上下。20b版在同类参数级别中表现也极为突出。
  • 最长支持128k上下文输入,适合对长文档和复杂任务的需求。

快速上手:三种本地部署方法

方法一:Ollama(适合大多数用户)

  1. 下载Ollama客户端
  2. 拉取模型: sh ollama pull gpt-oss:20b # 或 gpt-oss:120b
  3. 直接运行对话: sh ollama run gpt-oss:20b
  4. 用API方式调用: python from openai import OpenAI client = OpenAI(base_url="http://localhost:11434/v1", api_key="ollama") resp = client.chat.completions.create(model="gpt-oss:20b", messages={"role":"user","content":"Hello!"}) print(resp)

方法二:Transformers(灵活多变,适合开发者)

  1. 安装依赖: sh pip install transformers accelerate torch triton kernels
  2. 加载并推理: python from transformers import pipeline pipe = pipeline("text-generation", model="openai/gpt-oss-20b", torch_dtype="auto", device_map="auto") output = pipe({"role": "user", "content": "Explain quantum mechanics"}, max_new_tokens=200) print(output[0]"generated_text")
  3. 启动本地服务,可供API访问: sh transformers serve

    另一终端运行


    transformers chat localhost:8000 --model-name-or-path openai/gpt-oss-20b

方法三:llama.cpp(最优轻量化部署,支持无GPU设备)

  1. 安装 llama.cpp 并配置Hugging Face CLI。
  2. 从HuggingFace下载4-bit Q4_K_S量化模型文件。
  3. 启动本地推理服务器: sh llama-server -m "path/to/model.gguf"
  4. 直接浏览器访问 http://localhost:8080 即可体验完整本地AI对话。

安全合规与风险控制

OpenAI对gpt-oss模型进行了安全风险评估。结果表明,该系列模型在恶意微调后的风险总体低于自家封闭版模型。同时,开源版没有直接监督链式思维,提高了开放研究空间,同时也对开发者如何展示模型“思考过程”提出了明确警告:CoT内容仅限于开发调试,勿直接面向终端用户,以免输出不当或虚构信息。


谁最适合用GPT-OSS?

  • 开发者、科研人员:gpt-oss-20b性价比优异,桌面实验无压力。
  • 企业/机构:gpt-oss-120b适合定制开发、产品上线、数据主权场景。
  • 注重隐私和本地化场景:完全本地,不依赖外部API,消除隐私疑虑和费用负担。

背后的行业意义

OpenAI这次的真正“开源”,不仅仅是给开发者提供了新的工具选择,更是商业策略和技术路线的转折。数字世界变化太快,开源市场正成为模型厂商争夺开发者、企业用户、生态力量的新赛道。过去,开发者只能通过OpenAI的API远程付费使用模型,所有数据流经OpenAI服务器。如今,模型权重开放,本地完全可控,开发流程彻底复权。

开源降低了初创企业、资源有限行业入门AI和集成AI的门槛,也将推动产业技术创新,形成更丰富的应用生态。这对中国AI厂商的开源步伐也是激励——未来AI全球普及靠的不只是闭源巨头,而是全社会集体合作和创新。


资源及延伸阅读

现在,你就能在自己的电脑或服务器上体验顶级AI模型的自由和强大。不论你是想做AI开发、数据分析,还是想给产品加上最前沿的AI引擎,GPT-OSS都值得一试。别再等“GPT-5”了,赶紧动手试试,体验真正属于你的AI吧!


更多AI前沿大模型,尽在YooAI,无续订阅,免费使用!