ITBear旗下自媒体矩阵:

阿里云通义千问大降价 Qwen-Long模型使用成本直降97%

   时间:2024-05-21 13:58:07 来源:ITBEAR编辑:星辉 发表评论无障碍通道

【ITBEAR科技资讯】5月21日消息,随着大模型的兴起,各行业的工作效率得到了显著提升。然而,高昂的使用成本一直是大模型规模化应用的主要障碍。在这样的背景下,阿里云采取了果断行动。今日,阿里云宣布对其通义千问GPT-4级别的主力模型Qwen-Long进行了大幅降价,API输入价格从原先的0.02元/千tokens骤降至0.0005元/千tokens,降幅高达97%。

这一价格调整意味着,现在只需花费1块钱,用户就能购买到相当于200万tokens的文字量,这大约等同于5本《新华字典》的内容。Qwen-Long模型还支持最高达1千万tokens的长文本输入,而降价后的使用成本仅为GPT-4的1/400。

据ITBEAR科技资讯了解,Qwen-Long是通义千问推出的一款长文本增强版模型,其在性能上与GPT-4相媲美,且支持的上下文长度最高可达1千万tokens。除了输入价格的大幅下调,Qwen-Long的输出价格也降低了90%,至0.002元/千tokens。与此相比,其他国内外知名大模型如GPT-4、Gemini1.5 Pro、Claude 3 Sonnet以及Ernie-4.0的每千tokens输入价格都远高于Qwen-Long。

阿里云此次降价涵盖了9款商业化及开源系列模型。其中,不久前发布的旗舰款大模型Qwen-Max的API输入价格也降至了0.04元/千tokens,降幅达到了67%。Qwen-Max在业界表现卓越,在权威基准OpenCompass上的性能与GPT-4-Turbo相当,并在大模型竞技场Chatbot Arena中成功跻身全球前15名。

随着大模型性能的逐步提升,AI应用的创新正迎来密集的探索期。然而,推理成本过高仍然是制约大模型规模化应用的关键因素。阿里云智能集团资深副总裁、公共云事业部总裁刘伟光在武汉AI智领者峰会上表示:“作为中国领先的云计算公司,阿里云此次大幅降低大模型推理价格,旨在加速AI应用的爆发。我们预计未来大模型API的调用量将实现成千上万倍的增长。”

刘伟光还指出,公共云+API将成为企业使用大模型的主流方式,这主要得益于公共云的技术红利和规模效应所带来的巨大成本和性能优势。阿里云通过不断优化模型自身和AI基础设施,致力于追求极致的推理成本和性能。此外,云上调用多模型更为方便,并能提供企业级的数据安全保障。同时,云厂商的开放性使得开发者能够轻松获取丰富的模型和工具链资源。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version