美国时间11月6日,AI巨头OpenAI在旧金山举办了首届全球开发者大会“OpenAI DevDay”。在大会上,OpenAI的CEO山姆·奥特曼(Sam Altman)和其他人一起带来了“干货满满”的45分钟演讲,推出了可支持高达1.28万tokens的新模型GPT-4 Turbo以及ChatGPT的一系列升级内容。微软CEO也在本次大会上登台亮相。
在发布会的开头,奥特曼先简单回顾了公司过去一年的发展历程,强调“公司在今年3月发布的GPT-4至今仍是世界上能力最强的AI大模型”。
根据OpenAI统计的数据,至今已经有来自全球各地的200万开发者正在使用OpenAI的API(应用程序接口),92%的《财富》世界500强公司正在使用OpenAI的产品搭建服务,而ChatGPT的周活用户数也达到1亿人。
最强新模型支持更多tokens,价格更低
OpenAI本次发布的Turbo模型在多个方面取得了显著进步。
首先,在上下文对话长度上,基于GPT4的ChatGPT最大只能处理8000个tokens(语言模型中用来表示单词或短语的符号,8000个tokens约等于6000个单词),而GPT企业版拥有32000个tokens的上下文窗口。奥特曼表示,Turbo支持的1.28万tokens将是GPT4的16倍,相当于一本300页的标准书所包含的文本量。
随着GPT-4 Turbo的推出,OpenAI也正式推出了多模态API。文生图模型DALL·E 3、具有视觉输入能力的GPT-4 Turbo以及新的声音合成模型(TTS)都在当天进入API。同时,OpenAI还宣布了新的语音识别模型Whisper V3,将在近期向开发者提供API。
在定价方面,GPT-4 Turbo较GPT-4也降低了许多。在GPT-4 Turbo中,输入tokens的价格只有原来的三分之一,而输出tokens的价格只有原来的一半。这也就意味着,输入1000个tokens的定价为1美分,而输出1000个tokens的定价为3美分。
GPT-3.5 Turbo 16K和GPT-3.5 Turbo 16K微调的价格也都有所下降。奥特曼还提到,在降低价格后, OpenAI接下来的重点将放在为模型提速上。
新模型还将为开发者推出了包括JSON模式、可再现输出(reproducible output)在内的多个功能,给予开发者更多的控制权。另外,继向全球开发者开放GPT 3.5微调(Fine-tuning)后,OpenAI宣布将向活跃开发者提供GPT-4微调的资格,并将所有GPT-4用户的Token速率限制扩大了一倍。
作者:tk.⭐野,出处:https://www.tk0123.com/4178.html