ITBear旗下自媒体矩阵:

字节跳动豆包崛起背后:大模型竞赛的残酷真相与洗牌加速

   时间:2025-01-14 11:38:34 来源:ITBEAR作者:ITBEAR编辑:快讯团队 发表评论无障碍通道

在2024年的科技舞台上,人工智能大模型无疑是那颗最为耀眼的明星。一系列预言与突破接踵而至,仿佛每一刻都在见证着“AI一天,人间一年”的奇迹。英伟达凭借智算浪潮的推动,成功跻身3万亿市值俱乐部;中国开源势力崭露头角,通义大模型的DeepSeek与Llama正面交锋;国内AI视频生成技术突飞猛进,与国际巨头Sora并驾齐驱;同时,手机和PC制造商也在硬件领域掀起了一场狂欢。

在这场群雄逐鹿的竞赛中,字节跳动凭借一款名为豆包的大模型异军突起,迅速成为全球第二大、中国第一大AI大模型,这一成就令众多竞争对手望尘莫及。尽管字节跳动在AI领域的起步和积累相对较晚,但豆包在短短一年多时间内便一飞冲天,将众多对手远远甩在身后。

豆包的崛起并非偶然。字节跳动内部迅速统一了共识,为豆包大模型的研发提供了全方位的支持。从大规模招募AI人才、成立专门的AI部门Flow,到整合内部资源、实施赛马机制,字节跳动不遗余力地加速豆包的研发进程。这一系列“大力出奇迹”的操作,使得豆包在短时间内便取得了显著的成果。

今年11月,豆包App以5998万月活跃用户数的成绩稳居全球第二,仅次于OpenAI的ChatGPT,国内排名第一。而其海外版Cici也表现出色,月活跃用户数达到1267万。这一成绩的取得,离不开字节跳动在C端市场的巨额投入,累计投流费用高达10亿元。高强度的市场投放使得豆包迅速在社交媒体、搜索引擎和短视频平台上占据了用户的注意力,形成了强大的品牌效应。

在B端市场,豆包更是祭出了价格大杀器。豆包Pro 32k模型和128k模型的定价分别低至每千Tokens 0.8厘和5厘钱,直接将国产大模型的tokens定价带入“厘”时代。这一降价策略不仅打了对手一个措手不及,还迫使竞争对手纷纷跟进降价。

算力之争也是大模型之争的关键一环。字节跳动在AI领域的资本开支高达800亿元,接近BAT三家的总和。根据最新披露的数据显示,2025年字节跳动的资本开支还将增加到1600亿元,其中900亿元用于购置AI算力集群,700亿元用于IDC基建和网络设备。字节跳动的饱和式攻击策略,正是其后来居上的核心原因。

随着国内大模型的持续进步,一批大模型公司崭露头角。百度文心大模型的日均调用量超过15亿次,豆包通用模型的日均tokens使用量也超过4万亿。然而,进入2024年下半年,行业风向突变,曾经风头无两的大模型“六小虎”面临严峻考验,融资受阻、商业化遭遇挑战。与此同时,一批技术先进的公司快速崛起,大厂攻势日益凶猛,行业规律开始在大模型领域重现。

主流头部大厂在用户、场景与算力方面具备比较优势。百度拥有超级APP和海量搜索资源,以及百度智能云等支持;阿里有支付宝、淘宝、天猫等超级应用,以及阿里云的辅助;腾讯和字节跳动同样拥有众多豪华资源。这些大厂在做大模型的过程中如鱼得水,而初创公司则面临数据资源获取困难、投流费用高昂等挑战。

技术先进的公司和大厂在商业模式上持续挤压初创公司的生存空间。卖API是AI大模型公司的重要生意模式之一,但国内提供大模型API已经变成了模型厂商抢占市场的方式,并未带来丰厚利润。价格战愈演愈烈,DeepSeek、豆包等厂商纷纷降价,百度甚至直接宣布两款模型免费。这样的降价幅度直接将一众初创大模型公司逼到了墙角。

大模型的洗牌进入加速期。技术研发开支的增大、融资的不顺迫使厂商加快大模型商业化的进程。随着大模型推理成本的降低和轻量级大模型、MOE的流行,大模型的落地速度进一步加快。今年前11个月,大模型中标项目达到728个,是去年的3.6倍。商业化也从粗放的面向全行业向单一行业深度发掘转变,服务方式也从买单走量向“应用效果”、陪伴式服务转变。

经过2024年的激战,基础大模型层面已经基本定型。国内外的大模型公司已经收敛到少数几家企业。未来想要胜出,就得靠做出有影响力的AI应用。然而,在商业能力方面,预训练成本高、国外订阅模式走不通等挑战依然存在。对于初创公司而言,应对这些挑战的难度系数显然更高。可以预见,在初步的“百模大战”之后,国内大模型或将迎来新的大洗牌。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version