OpenAI 推出“推理”模型 o1 API 并更新多项开发者工具
12月18日,在“OpenAI 12天”活动的第9天,OpenAI 今日宣布其全新“推理”人工智能模型 o1 正式通过 API 向部分开发者开放,同时同步更新了包括 GPT-4o、实时 API 以及微调 API 等多项开发者工具。
OpenAI 表示,o1 模型的 API 已经对部分开发者开放,首批获得使用权限的开发者为 OpenAI “第五级”用户。这些开发者需要满足两个条件:在 OpenAI 平台上累计消费至少 1000 美元(约7285元人民币),并且账户创建超过 30 天。o1 API 取代了此前的 o1-preview 模型,并在多个方面进行了增强。
与传统的 AI 模型不同,o1 等推理模型具备自我事实核查的能力,可以有效减少常见错误。不过,这一优势的代价是计算成本较高,且模型推理时间较长。据了解,OpenAI 对 o1 模型的收费为每分析 75 万字收取 15 美元,每生成 75 万字收费 60 美元,这个费用是当前 GPT-4o 模型的六倍。
与之前的 o1-preview 版本相比,o1 API 提供了更高的可定制性。新版本增加了函数调用功能,允许模型连接外部数据源,同时新增了开发者消息功能,开发者可指导模型的语气和风格。此外,o1 还引入了图像分析能力,并提供了一个名为“reasoning_effort”的 API 参数,允许开发者调整模型在回答问题时的“思考”时间,以便在特定场景下优化推理过程。
OpenAI 在博客中提到,最新版本的 o1 模型(o1-2024-12-17)经过后训练,针对用户反馈对多个行为进行了改进,尤其是在编程和商业相关问题的处理上,性能更为精准,并减少了错误拒绝请求的情况。OpenAI 强调,他们正在逐步扩大 o1 API 的访问权限,并提升速率限制,以覆盖更多用户级别。
除了 o1 API,OpenAI 还发布了更新版本的 GPT-4o 和 GPT-4o mini 模型,作为其实时 API(Realtime API)的一部分。实时 API 用于构建低延迟、高效能的人工智能语音应用程序,特别是在实时交互中。新发布的模型(“gpt-4o-realtime-preview-2024-12-17”和“gpt-4o-mini-realtime-preview-2024-12-17”)提升了数据效率和可靠性,并降低了使用成本。
目前,实时 API 仍处于测试阶段,但已经增加了多个新功能,如并发的带外响应,可以在不中断交互的情况下执行后台任务(如内容审核)。此外,实时 API 还支持 WebRTC——一个广泛应用于浏览器、智能手机和物联网设备的开放标准,用于构建实时语音应用。OpenAI 表示,WebRTC 集成的目标是即使在网络质量不稳定的情况下,也能保证流畅且响应迅速的用户体验。
在微调方面,OpenAI 推出了新的偏好微调功能,使开发者能够通过比较不同回答的配对来“教导”模型区分首选答案与非首选答案。这一功能能够进一步提高模型的回答质量,确保其生成的内容更符合用户的需求。此外,OpenAI 还为 Go 和 Java 提供了官方软件开发工具包(SDK)的早期访问测试版,进一步扩展了其开发者生态系统。