5月12日消息,据The Information报道, OpenAI 已经向一些客户展示了一种新的多模式人工智能模型,该模型既可以与你交谈,也可以识别物体。
该媒体援引未透露姓名的消息人士的话说,这可能是该公司计划周一展示的一部分。
据报道,与现有的单独转录和文本转语音模型相比,新模型可以更快、更准确地解释图像和音频。
The Information写道,它显然能够帮助客户服务代理更好地理解呼叫者的语调,或者他们是否在讽刺,并且理论上,该模型可以帮助学生学习数学或翻译现实世界的手势。
该媒体的消息来源称,该模型在回答某些类型的问题方面可以超越 GPT-4 Turbo,但仍然容易出错。
开发人员 Ananay Arora 发布了上述通话相关代码的屏幕截图,他表示 OpenAI 也可能正在准备新的内置 ChatGPT 功能来拨打电话。
Arora 还发现了OpenAI 已配置用于实时音频和视频通信的服务器的证据。
如果下周公布的话,这一切都不是 GPT-5。首席执行官 Sam Altman明确否认其即将发布的公告与被认为比 GPT-4 “实质上更好”的模型有任何关系。该信息称 GPT-5 可能会在今年年底公开发布。
奥特曼还表示,该公司不会宣布推出新的人工智能搜索引擎。
但如果The Information 的报道属实,那么谷歌 I/O 开发者大会的进展仍可能会受到一些影响。谷歌一直在测试使用人工智能打电话。传闻中的项目之一是名为Pixie的多模式 Google Assistant 替代品,它可以通过设备的摄像头查看物体,并执行诸如指示购买地点或提供如何使用它们的说明等操作。
无论 OpenAI 计划发布什么内容,它都计划于周一上午 10 点(太平洋时间)/下午 1 点(东部时间)在其网站上进行直播。
Prev Chapter:OpenAI还能领先多久?Meta、微软们正从场景、算力、成本端全面围剿
Next Chapter:OpenAI谷歌苹果再燃AI争霸战,谁将担纲“Her”时代王者?