随着2024年的深入,人工智能领域的大模型竞赛愈发激烈,从年初的Sora到最新的o3,各类更新迭代层出不穷,引发了业界对于“内卷”现象的广泛关注。所谓“内卷”,指的是某一行业或领域在达到一定发展阶段后,陷入了一种停滞不前的状态,尽管投入增加,但实际效果并未显著提升。
在这一背景下,大模型的scaling law法则正面临前所未有的挑战。尽管算力集群的规模从万卡级别跃升至十万卡级别,但模型的智能水平并未以同样的速度提升。同时,应用端也缺乏具有颠覆性的“杀手级应用”,模型厂商之间为了争夺市场份额,纷纷采取了价格战策略,这无疑加剧了内卷的趋势。
公众和投资者的态度变化成为了一个明显的信号。去年,人工智能的发展速度被形容为“AI一天,人间一年”,美股“七姐妹”等相关企业也在这股热潮中屡创新高。然而,近期这股热情已经明显降温,投资者对于AI的发展前景开始持谨慎态度。OpenAI的股东和服务商企业纷纷抱怨AI能力的进展缓慢,OpenAI的发布会也未能带来太多惊喜,反而前首席科学家的言论“预训练将会终结”进一步打击了市场信心。
与此同时,产品同质化竞争的问题也日益凸显。大模型之间的性能差异逐渐缩小,开源模型与闭源模型之间的差距也在快速缩小。在同一厂商内部,旧模型被新模型取代的速度也在加快,用户更倾向于选择性价比更高的新产品。这种激烈的竞争环境使得模型厂商不敢减少对新模型的投入,同时又要应对价格战的压力,经济负担日益沉重。
面对这些挑战,模型厂商开始从商业层面寻找出路。云+API模式作为大模型的主要变现方式之一,其效果却并不尽如人意。虽然云厂商通过降价来吸引更多用户上云,但B端客户更注重模型的长期性和质量。因此,那些本身具备较强模型能力的云厂商在竞争中占据了优势。另一方面,订阅制模式也受到了内卷化的影响,用户粘性低、忠诚度不高,会员市场呈现出高度分散的状态。
为了逃离内卷化的困境,大模型市场需要更加完善的商业基础设施。一个“外向”的大模型应该具备高度的开放度和兼容性,以满足用户对多元多模的需求。同时,还需要更加细致的开发工具来支持大模型技术的应用转化。平台还需要加大对开发者的商业资源扶持,帮助他们将AI应用商业化。
例如,腾讯混元大模型提供了多个免费资源包,支持不同模型的共享和切换,满足了用户对灵活性的需求。同时,OpenAI为Sora打造了专业的开发工具,吸引了大量专业用户。在国内,字节跳动和百度等企业的开发平台也提供了易于上手的开发工具。
然而,尽管有这些努力,大模型市场仍然面临着诸多挑战。技术天花板的限制使得模型能力的提升变得困难重重,市场饱和和同质化竞争的局面也在短期内难以改变。因此,大模型要取得商业成功,必须关注用户和开发者的业务需求,提供完善的商业基础设施来支持他们的成功。
在2025年,随着大模型商业基础设施的逐步完善,我们有望看到更多创新的应用和解决方案涌现。但在此之前,所有模型厂商都需要回答一个问题:如果大模型是水和电,那么当用户和开发者拧开开关时,他们究竟能得到什么?