今天万众瞩目的 OpenAI 2024 春季更新发布会已经结束。
主要有几个更新:1. 发布了新的Desktop App,可以让你方便的分享屏幕、发送图片和代码给它
2. WebUI 更新
3. 新的 GPT-4o 模型这个模型打通了文本、语音、视频、图片,不需要相互转换,可以从图片直接生成语音,语音到语音,不需要中间转换GPT-4o 所有的免费用户可以用(代替以前的网页版的免费的GPT-3.5)。
对于付费用户,他们将继续拥有超过我们免费用户五倍的容量限制。有新的GPT-4o API,更快更便宜,4o 的速度是 GPT-4 Turbo 的两倍,价格降低了 50%,速率限制提高了五倍。未来 GPTs 也将支持 GPT-4o,免费用户也可以使用 GPTs 了!
4. 实时语音助手演示语音助手不仅能“听”,还能“看”,当然能“思考”和“回复”,可以通过摄像头实时“看”到画面,做出响应它跟语音模式的不同之处:首先,你现在可以随时打断模型,不需要等到它回答完毕就可以直接发言了。其次,模型具有实时响应的能力,这意味着你不再需要忍受那种两到三秒的响应延迟。最后,模型可以感知到情绪,比如演示者呼吸特别急促时,它能察觉到。它知道,嘿,你可能需要稍微冷静一点。你可能走得有点快了。所以,它确实具有全面感知你的情绪的能力。不仅如此,这个模型还能以多种不同的情感风格生成语音。而且它的动态范围非常广泛。
5. ChatGPT Desktop App,可以“看到”屏幕(用户可以共享和发送内容给ChatGPT),可以辅助代码、分析图表6. 其他:可以实时语音翻译,快速准确可以识别表情这些功能需要等几个星期向大家推出