OpenAI支持函数调用和释放更多接口功能

· 6分钟阅读
OpenAI支持函数调用和释放更多接口功能

今年早些时候,OpenAI发布了gpt-3.5 turbo和gpt-4,在短短几个月内,开发人员就在这些型号的基础上构建了令人难以置信的应用程序。

今天,OpenAI将爆出更多令人兴奋的更新:

  • 聊天完成API中的新函数调用功能
  • 更新和更可操纵的版本的gpt-4和gpt-3.5-turbo
  • gpt-3.5-turbo的新16k上下文版本(相对于标准4k版本)
  • 我们最先进的嵌入式模型降低了75%的成本
  • gpt-3.5-turbo的输入token成本降低25%
  • 宣布gpt-3.5-turbo-0301和gpt-4-0314型号的弃用时间表

所有这些模型都具有在3月1日引入的相同的数据隐私和安全保证——客户拥有由其请求生成的所有输出,并且他们的API数据不会用于培训。

函数调用

开发人员现在可以向gpt-4-0613和gpt-3.5-turbo-0613描述函数,并让模型智能地选择输出包含调用这些函数的参数的JSON对象。这是一种更可靠地将GPT的功能与外部工具和api连接起来的新方法。

这些模型经过了微调,既可以检测何时需要调用函数(取决于用户的输入),又可以使用符合函数签名的JSON进行响应。函数调用允许开发人员更可靠地从模型中获得结构化数据。例如,开发人员可以:

  • 创建聊天机器人,通过调用外部工具来回答问题(例如,像ChatGPT插件)

将诸如“给Anya发邮件,看看她下周五是否想喝咖啡”之类的查询转换为函数调用,如send_email(to: string, body: string)或“新加坡的天气怎么样?”"到get_current_weather(location: string, unit: 'celsius' | 'fahrenheit')。

  • 将自然语言转换为API调用或数据库查询

“这个月我的十大客户是谁?”的内部API调用,如get_customers_by_revenue(start_date: string, end_date: string, limit: int),或“Acme, Inc.上个月下了多少订单?”对SQL查询使用sql_query(query: string)。

  • 从文本中提取结构化数据

定义一个名为extract_people_data(people: [{name: string, birthday: string, location: string}])的函数,提取维基百科文章中提到的所有人。

这些用例是通过/v1/chat/completions端点中的新API参数、functions和function_call实现的,它们允许开发人员通过JSON Schema向模型描述函数,并有选择地要求它调用特定的函数。从我们的开发人员文档开始,如果你发现函数调用可以改进的地方,可以添加eval。

函数调用示例

用户:现在新加坡的天气怎么样?

Step 1·OpenAI

API用函数和用户输入调用模型

Step 2·Third party

API使用模型响应来调用API

Step 3·OpenAI

API将响应发送回模型进行汇总

GPT:新加坡目前天气晴朗,气温为22摄氏度。

自从ChatGPT插件的alpha版本发布以来,我们已经学会了如何让工具和语言模型安全地协同工作。然而,仍有开放的研究问题。例如,概念验证漏洞说明了来自工具输出的不可信数据如何指示模型执行意外操作。我们正在努力减轻这些风险和其他风险。开发人员可以通过只使用来自可信工具的信息,以及在执行具有实际影响的操作(如发送电子邮件、在线发帖或购买)之前包含用户确认步骤,来保护他们的应用程序。

新模型

GPT-4

Gpt-4-0613包括一个更新和改进的模型与函数调用。

Gpt-4-32k-0613包括与gpt-4-0613相同的改进,以及扩展的上下文长度,以便更好地理解较大的文本。

有了这些更新,我们将在未来几周邀请更多的人从候补名单中尝试GPT-4,并打算用这个模型完全删除候补名单。感谢所有耐心等待的人,我们很高兴看到你用GPT-4构建的东西!

GPT-3.5 Turbo

gpt-3.5-turbo-0613包括与GPT-4相同的功能调用,以及通过系统消息更可靠的可操纵性,这两个功能允许开发人员更有效地指导模型的响应。

gpt-3.5-turbo-16k提供的上下文长度是gpt-3.5-turbo的4倍,价格是gpt-3.5-turbo的两倍:每1K输入token 0.003美元,每1K输出token 0.004美元。16k上下文意味着该模型现在可以在单个请求中支持约20页的文本。

模型的用法

今天,我们将开始升级和弃用我们在3月份宣布的gpt-4和gpt-3.5 turbo的初始版本。使用稳定型号名称(gpt-3.5 turbo, gpt-4和gpt-4-32k)的应用程序将在6月27日自动升级到上述新型号。为了比较不同版本之间的模型性能,我们的eval库支持公共和私有eval,以显示模型更改将如何影响您的用例。

需要更多时间过渡的开发人员可以通过在API请求的“model”参数中指定gpt-3.5-turbo-0301、gpt-4-0314或gpt-4-32k-0314来继续使用旧型号。这些旧型号将在9月13日之前可以访问,之后指定这些型号名称的请求将失败。您可以通过我们的模型弃用页面了解模型弃用的最新信息。这是这些模型的第一次更新;因此,我们热切欢迎开发人员的反馈,以帮助我们确保顺利过渡。

更低的价格

我们将继续使我们的系统更加高效,并将节省的成本传递给开发人员,这在今天是有效的。

Embeddings

text- embedting -ada-002是我们最流行的嵌入模型。今天,我们将成本降低了75%,降至每1K token 0.0001美元。

GPT-3.5 Turbo

gpt-3.5-turbo是我们最受欢迎的聊天模型,为数百万用户提供了强大的ChatGPT。今天,我们将gpt-3.5 turbo的输入token成本降低了25%。开发人员现在可以使用这个模型,每1K个输入令牌只需0.0015美元,每1K个输出令牌只需0.002美元,这相当于每美元大约700页。

gpt-3.5-turbo-16k的价格为每1K个输入token 0.003美元,每1K个输出token 0.004美元。

开发者的反馈是我们平台发展的基石,我们将继续根据我们听到的建议进行改进。我们很高兴看到开发人员如何在他们的应用程序中使用这些最新的模型和新功能。