我们很高兴在我们的第一次会议——OpenAI DevDay 上分享了一些重大的新功能和更新。您可以在我们的博客上阅读完整的细节,观看主题演讲的录像,或者查看新的 @OpenAIDevs Twitter 账号,不过这里有一个简短的总结:
我们宣布了 GPT-4 Turbo ,我们最先进的模型。它提供了 128K 的上下文窗口,并且知道直到 2023 年 4 月的世界事件。
我们大幅降低了 GPT-4 Turbo 的价格:输入令牌现在的价格是每千个$0.01 ,输出令牌是每千个$0.03 ,与之前的 GPT-4 定价相比,分别便宜了 3 倍和 2 倍。
我们改进了函数调用,包括能够在单条消息中调用多个函数,总是以 JSON 模式返回有效函数,以及提高了返回正确函数参数的准确性。
模型输出通过我们新的可重现输出 beta 功能变得更加确定性。
您可以通过在 API 中传递 gpt-4-1106-preview 来访问 GPT-4 Turbo ,稳定的生产就绪模型计划在今年晚些时候发布。
新的 gpt-3.5-turbo-1106 默认支持 16K 上下文,并且这 4 倍更长的上下文以更低的价格提供:每千个输入$0.001 ,每千个输出$0.002 。这个 16K 模型的微调是可用的。
微调后的 GPT-3.5 使用成本大大降低:输入令牌价格下降了 75%至每千个$0.003 ,输出令牌价格下降了 62%至每千个$0.006 。
gpt-3.5-turbo-1106 与 GPT-4 Turbo 一起,改进了函数调用和可重现输出。
我们很高兴介绍我们新的助理 API 的 beta 版,它旨在帮助您在应用程序中毫不费力地构建类似代理的体验。用例范围从基于自然语言的数据分析应用,编程助手,AI 驱动的假期计划者,语音控制的 DJ ,智能视觉画布——列表还在继续。
这个 API 使创建专门构建的 AI 助理成为可能,这些助理可以遵循特定指令,利用额外的知识,并与模型和工具互动来执行各种任务。
助理拥有持久的线程,供开发人员将线程状态管理交给 OpenAI ,并解决上下文窗口的限制。他们还可以使用新工具,如代码解释器,检索和函数调用。
我们的 Playground 平台允许您在不编写代码的情况下试玩这个新 API 。
GPT-4 Turbo 现在支持在 Chat Completions API 中使用视觉输入,使得像标题生成和视觉分析等用例成为可能。您可以通过使用 gpt-4-vision-preview 模型来访问视觉功能。这个视觉能力将在今年晚些时候退出预览时集成到生产就绪版本的 GPT-4 Turbo 中。
您还可以通过图像生成 API 将 DALL·E 3 用于图像生成集成到您的应用程序中。
我们通过新引入的 TTS 模型发布了文本到语音的能力,它将使用六种自然听起来的声音为您阅读文本。
我们推出了一个名为 GPTs 的新功能。GPTs 将指令、数据和能力