【ITBEAR科技资讯】5月14日消息,OpenAI于今日凌晨正式推出了其新一代旗舰模型GPT-4o,这款人工智能模型具备实时推理能力,可处理语音、视频及文本信息。
GPT-4o在英文文本与代码处理方面与GPT-4 Turbo性能相当,然而,其在处理非英文文本上的表现有了显著增强。更相较于当前市场上其他模型,GPT-4o在视频与音频理解方面展示出更优越的能力。
据ITBEAR科技资讯了解,GPT-4o的另一亮点在于其快速响应能力。该模型能以最快232毫秒的速度响应音频输入,平均响应时间为320毫秒,这一速度与人类在对话中的自然反应速度基本持平。
OpenAI正积极推动GPT-4o的广泛应用。自推出之日起,GPT-4o的文本与图片处理功能便已集成至ChatGPT中,供用户免费使用。对于ChatGPT Plus用户,其可处理的数据量上限将是免费用户的五倍。此外,新版本的音频模式也将在未来数周内向ChatGPT Plus用户推送。
为验证GPT-4o的实际性能,ITBEAR科技资讯进行了实地测试。尽管目前免费用户尚无法使用图片生成功能,但我们通过GPT-4o对图片进行了描述与分析。测试中,GPT-4o能够准确描述图片内容,甚至能对图片中的人物动作进行详尽阐述,并最终以文字形式对图片场景进行深入解析。
在进一步的测试中,我们使用了一张中文图表和一张英文图表对GPT-4o进行了分析能力的考察。对于中文图表,GPT-4o不仅能准确读取并解释其中的数字含义,还能对数据的差异与趋势进行详尽的分析。对于英文图表,GPT-4o同样展现出了强大的理解能力,能够读懂、翻译并根据图表数据得出分析结论。
总体而言,GPT-4o的性能有了显著的提升,无疑将为人工智能领域带来新的可能性。