在科技行业的激烈竞争中,阿里云近日宣布了本年度第三轮大模型降价举措,其通义千问视觉理解模型的价格降幅超过80%,引发了市场的广泛关注。
具体来说,Qwen-VL-Plus模型的降价幅度高达81%,每千个tokens的输入价格仅为0.0015元,创造了行业最低价。而性能更强大的Qwen-VL-Max模型,其价格也已降至0.003元每千tokens,降幅达到85%。按照这一新价格计算,用户仅用1元钱便可以处理约600张720P分辨率的图片,或者高达1700张480P分辨率的图片。
此次降价被视为对字节跳动早前发布的豆包视觉理解模型的一种回应。字节跳动在12月18日的火山引擎Force大会上推出的豆包模型,其千tokens输入价格为3厘,1元钱能处理284张720P图片。当时,字节跳动方面宣称该价格比业内平均水平低85%。
自大型模型技术兴起以来,相关厂商已投入大量资金。随着多轮降价潮的到来,资金实力较弱的初创企业面临了更大的挑战。字节跳动的后来居上,也给百度、阿里等互联网巨头带来了不小的压力。
早在2024年5月,智谱AI、字节跳动、阿里云等企业已经掀起过一轮大模型降价潮,将大模型推理算力价格降低了90%,使得大模型定价进入了“厘时代”。
2024年12月,月之暗面Kimi、字节豆包、阿里云通义千问相继推出新的视觉理解大模型,并再次掀起降价潮。一位大模型行业的从业者表示,大厂之间的价格战最先冲击的是创业企业,尤其是那些试图开展B端业务的企业,很难与大厂竞争。
除了降价,大模型企业还通过巨额的广告投流来拉新用户。据行业统计,Kimi在第三季度的广告投放费用约为1.5亿元,豆包约为2亿元。在抖音、快手、B站等线上平台以及线下的地铁、机场等场所,Kimi、豆包等AI产品的广告频繁出现。
大量的广告投流使得豆包、Kimi等产品的用户量迅速增长。在“AI产品榜”的11月全球月活跃排行榜上,豆包App的月活用户数达到了5998万,仅次于OpenAI的ChatGPT,位列全球第二。而在2024年2月,豆包的月活跃用户量还仅有173万。
然而,也有分析认为,大模型的烧钱战类似于移动互联网早期各应用为争夺用户而进行的烧钱推广,但高额的投流成本未必能换来用户长久的消费意愿,用户留存仍然是一个未知数。
相比之下,互联网大厂由于拥有社交平台、搜索引擎等流量入口,可以率先实现大模型的应用落地和商业变现。字节跳动通过火山引擎将豆包大模型应用于30多个行业,日均tokens调用量增长了33倍。百度则早在2023年就启动了文心大模型与百度搜索、输入法等产品的整合。
为了拉近与C端用户的距离,百度将文心一言APP更名为文小言,定位为百度旗下“新搜索”智能助手。阿里巴巴也看到了自身在C端应用的短板,在2024年12月对AI应用进行了调整,将“通义”App从阿里云分拆,并入阿里智能信息事业群,由该事业群总裁吴嘉负责AI在C端的应用。
随着市场竞争的加剧,国内大模型厂商正在从“百模大战”走向“应用之战”,市场更期待能够出现能够落地的应用,为大模型厂商带来收入,并为各行各业提高效率。