OpenAI 推出轻量级 GPT 模型 GPT-5.4 Mini 与 Nano

OpenAI 近日推出两款新型轻量级 GPT 模型(GPT-5.4 mini 和 GPT-5.4 nano),主打更快响应速度和更低运营成本,特别适用于对快速反馈要求高于复杂推理的工作场景。据官方公告,两款模型现已全面上线。

  • GPT-5.4 Mini:更高效更经济的编程模型 GPT-5.4 mini 主要面向现有 GPT-5 mini 用户群体,运行速度提升逾两倍,多项基准测试表现接近 GPT-5.4 水平。该模型被定位为追求显著速度升级开发者的首选方案。
  • GPT-5.4 Nano:专精简单 AI 任务的低成本模型 作为两款中体积更小的模型,GPT-5.4 nano 专注于分类、数据提取、排序及简易编程等任务。其设计优先考虑低延迟与最小化成本,堪称辅助型任务的理想选择。

在软件工程评估 SWE-Bench Pro 中,GPT-5.4 mini 得分 54.4%,显著高于 GPT-5 mini 的 45.7%,接近完整版 GPT-5.4 的 57.7% 。在计算机使用基准 OSWorld-Verified 测试中,GPT-5.4 mini 取得 72.1% 的成绩,与 GPT-5.4 的 75.0% 相差无几,远超 GPT-5 mini 的 42.0% 。 GPT-5.4 nano 在 SWE-Bench Pro 和 OSWorld-Verified 中分别获得 52.4% 和 39.0% 的分数,在多数评估中表现介于 GPT-5 mini 与 GPT-5.4 mini 之间。

OpenAI 规划 GPT-5.4 mini 将应用于编程助手、实时屏幕截图解析应用,以及多模型协同系统——在该系统中,小型模型执行具体任务,大型模型负责统筹规划。例如在 Codex 平台内,GPT-5.4 可委托 GPT-5.4 mini 完成代码库搜索等任务。

GPT-5.4 nano 适用于分类、数据提取等对速度与成本效益要求较高的直截了当型任务。该模型支持文本与图像输入、工具调用、函数响应、联网搜索、文件检索功能,并具备 40 万 tokens 的上下文窗口。在 Codex 平台中,其消耗配额约为标准版 GPT-5.4 的 30%,执行简单任务时成本仅为后者的三分之一。在 ChatGPT 平台,免费版与 Plus 用户可通过模型选择器的” 思考” 功能使用 GPT-5.4 mini,当 GPT-5.4 Thinking 不可用时,Plus 套餐用户享有备用支持。

GPT-5.4 nano 目前仅限 API 调用,定价为每百万输入 tokens 0.20 美元、每百万输出 tokens 1.25 美元,暂未接入 ChatGPT 或 Codex 平台。

(0)
RC-pulish的头像RC-pulish

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注