OpenAI发布新模型GPT-4o,TechWeb实测来了!

5月14日消息,今日凌晨,OpenAI正式发布了新一代的旗舰模型GPT-4o,可以利用语音、视频和文本信息进行实时推理。

据介绍,GPT-4o在英文文本和代码中的表现与GPT-4 Turbo相当,但在非英文文本上的能力大幅提升,在视频和音频的理解上,GPT-4o要明显强于当前的其他模型。

此外,能力更全面的GPT-4o,响应速度也更快,最快232毫秒响应音频输入,平均响应时间为320毫秒,与人类在对话中的响应速度相当。

除了更强、更全面的能力,OpenAI也在推动GPT-4o更广泛的应用。GPT-4o的文本和图片功能自推出之日起就向ChatGPT推送,ChatGPT用户可免费使用,ChatGPT Plus用户的数据量上限将是免费用户的5倍,新版本的音频模式将在未来几周向ChatGPT Plus用户推送。

TechWeb第一时间对GPT-4o进行了实测,不过目前免费用户还不能使用图片生成功能。我们使用GPT-4o来描述图片,并让其分别对一张中文图表和一张英文图表进行了分析,来看看结果。

我们首先让GPT-4o描述了一张图片,发现描述的非常准确,并可以对单独人物的动作进行描述,最后还可以用文字来分析该图片场景。

随后是一张中文图表,不但可以读懂上面的数字含义,还可以对差异和趋势进行非常详细的分析。

最后是一张英文图表,GPT-4o可以读懂并翻译图表展示的数据内容,最后根据图表数据总结得出分析结论。

总体来说,GPT-4o的能力的确有了很大的提升,未来在所有功能开放的时候,TechWeb也将继续为大家带来更详细的实测体验。(萧健)

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2024-05-14
OpenAI发布新模型GPT-4o,TechWeb实测来了!
5月14日消息,今日凌晨,OpenAI正式发布了新一代的旗舰模型GPT-4o,可以利用语音、视频和文本信息进行实时推理。

长按扫码 阅读全文