OpenAI美东时间周四推出“GPT-4o mini”,入局“小而精”AI模型竞争,称这款新模型是“功能最强、成本偏低的模型”,计划今后整合图像、视频、音频到这个模型中。

OpenAI表示,GPT-4o mini 相较于 OpenAI 目前最先进的 AI 模型更加便宜且运行速度更快,今日起面向开发者以及通过 ChatGPT 网络和移动应用向消费者发布,企业用户将于下周获得访问权限。目前访问更方便且便宜的ChatGPT镜像站已经支持GPT-4o mini

据OpenAI介绍,GPT-4o mini 在涉及文本和视觉的推理任务中表现优于行业领先的小型 AI 模型。随着小型 AI 模型的改进,由于其速度和成本效益相较于大型模型(如 GPT-4 Omni 或 Claude 3.5 Sonnet)更具优势,开发者越来越青睐使用小型 AI 模型。它们是适用于高频率、简单任务的有用选择,这些任务需要开发者反复调用 AI 模型来执行。

GPT-4o mini 将取代 GPT-3.5 Turbo 成为 OpenAI 提供的最小模型。根据 Artificial Analysis 的数据,OpenAI 声称其最新的 AI 模型在 MMLU 推理能力评估中得分为 82%,而 Gemini 1.5 Flash 得分为 79%,Claude 3 Haiku 得分为 75%。在 MGSM 数学推理评估中,GPT-4o mini 得分为 87%,Flash 得分为 78%,Haiku 得分为 72%。

此外,OpenAI 表示,GPT-4o mini 的运行成本明显低于以往的尖端模型,比 GPT-3.5 Turbo 便宜超过 60%。目前,GPT-4o mini 支持 API 中的文本和视觉功能,并且 OpenAI 表示该模型未来还将支持视频和音频功能。

“为了让世界各地都能受益于 AI,我们需要让模型更具成本效益。”OpenAI 的产品 API 负责人 Olivier Godement 在接受 TechCrunch 采访时表示,“我认为 GPT-4o mini 是朝这个方向迈出的重要一步。”

对于基于 OpenAI API 构建的开发者,GPT-4o mini 的定价为每百万输入 tokens 15 美分,每百万输出 tokens 60 美分。该模型的上下文窗口为 128,000 tokens,大致相当于一本书的长度,其知识截止日期为 2023 年 10 月。

OpenAI 未透露 GPT-4o mini 的确切规模,但表示其大致与其他小型 AI 模型(如 Llama 3 8b、Claude Haiku 和 Gemini 1.5 Flash)在同一层级。不过,OpenAI声称,根据在 LMSYS.org 聊天机器人领域的预发布测试,GPT-4o mini 比行业领先的小型模型更快、更具成本效益且更智能。早期的独立测试似乎证实了这一点。

“与同类模型相比,GPT-4o mini 非常快,平均输出速度为每秒 202 tokens。”Artificial Analysis 联合创始人 George Cameron 在给 TechCrunch 的一封电子邮件中表示,“这比 GPT-4o 和 GPT-3.5 Turbo 快 2 倍以上,对于包括许多消费者应用程序和使用 LLM 的代理方法在内的依赖速度的用例来说,是一个引人注目的选择。”

OpenAI 为 ChatGPT Enterprise 推出的新工具

另据报道,OpenAI 于周四宣布了针对企业客户的新工具。在一篇博文中,OpenAI 宣布了 Enterprise Compliance API,帮助金融、医疗、法律服务和政府等高度监管行业的企业符合日志和审计要求。

OpenAI表示,这些工具将允许管理员审计和采取行动处理其 ChatGPT Enterprise 数据。该 API 将提供时间戳记录的交互,包括对话、上传的文件、工作区用户等。

OpenAI 还为管理员提供了更细粒度的控制,以管理工作区 GPT,这是为特定业务用例创建的定制版本 ChatGPT。此前,管理员只能完全允许或阻止工作区中创建的 GPT 操作,但现在工作区所有者可以创建 GPT 可以交互的批准域列表。

参考内容:

阅读原文:GPT-4o mini: advancing cost-efficient intelligence

参考译文:GPT-4o mini:推动高效智能的发展