ITBear旗下自媒体矩阵:

两种人生,一种困境

   时间:2024-10-31 17:02:56 来源:数据猿作者:苏婉清编辑:瑞雪 发表评论无障碍通道

最近,AI圈发生了两件事。

一是商汤科技战略转型,二是李开复在采访中透露OpenAI即将发布新产品。

这两件看似不相关的事,表达了AI领域两种人生,同一种困境。

商汤的转型

2022年及此前,商汤的业务主要分为智慧商业、智慧生活、智能汽车、智慧城市四大业务线。值得注意的是,商汤积极推广生成式AI业务,业务结构进一步转型。

2023年年报显示,在2023年的业务重组中,商汤科技明确了新的三大业务板块——生成式AI、传统AI和智能汽车,它们分别对应着提供生成式AI的模型训练、微调及推理服务业务,传统智慧城市、智慧商业与智慧生活的非生成式AI业务,以及原智能汽车业务。

商汤表示,2024年生成式AI迎来黄金发展时期,大模型和智算成为新质生产力,显著提升各行业效率。同时,商汤在财报中引用IDC报告表示,其大模型平台及应用以16%市场份额排名行业第二,AIDC服务以15.4%市场份额跻身行业前三。

上一个概念还是元宇宙,2021年还是公司的高频词汇,如今已经不再出现。

商汤科技表示,公司正在积极推进战略转型,聚焦“大装置-大模型-应用”重点业务和战略增长领域,同时进行组织和人才结构的优化和调整,以更好地满足业务发展需求。

商汤科技强调,公司此次战略转型,旨在通过优化组织架构和人才结构,提升公司在人工智能领域的竞争力。目前,商汤科技的社会招聘和校园招聘均正常进行中,整体业务保持稳健发展。

做的是TO B的生意,心中幻想的是C端的买卖。

作为一个观察“标本”非常有价值,这是一家不大不小的人工智能企业。不是巨头但在垂直赛道又颇具巨头范。

在股市,甚至有投资人以“亏损”为人工智能企业的认证标志,亏了说明你真花钱买芯片、买算力了。

真的在认认真真搞人工智能。

一是人,二是算力。

这两个都是公司过去几年大力投入的重点,在市场疯狂期人才价格和芯片价格都有了“大模型”溢价。

正如,公开信所说的那样。在传统的AI 1.0时代,模型生产的主要成本在于研发人员的投入。而在生成式大模型A1 2.0时代,模型生产的成本主要在于算力资源的投入。随着尺度定律在大语言模型、多模态模型、视频生成模型以及慢思考推理过程中得到验证,生产和使用大模型的成本可以直接等价于算力资源的消耗。简言之,生成式大模型的普及和商业化,需致力于降低大模型的生产和使用成本,这势必要结合大模型来迭代和优化算力,同时也需根据算力资源的特点来迭代大模型设计和应用。因此,在生成式大模型AI领域,商汤的核心战略是实现算力大装置(SCO)、大模型和应用(CNI)的无缝集成,以应用驱动模型,以模型带动算力的优化。

OpenAI的日子也不好过

OpenAI也在寻求融资,利用新的噱头,发布新的产品。

李开复在最近的一次采访中透露这一消息:“我刚刚从硅谷飞回来,刚得的OpenAI的消息还是比较准的。为什么OpenAI一直还没有发布GPT-5呢?因为他确实需要花很多钱去准备10万张卡的集群。但是他一直发不出来GPT-5,所以融资几十亿美元还是比较难的,然后就先发布一个o1出来,证明他自己的实力。其实他们是不想发布o1的。然后,他其实内部还有很多很多好东西。然后很多团队以为是自己发明的,其实OpenAI早就发明了。”

就像雷军说的:“这不是在跟我抢卖点吗?你拿出来卖呀?”

GPT-5训练过程遇到了阻碍,OpenAI拥有很强大的人才储备。

算力是最大成本,人其次。

跟互联网时代的流量思维不同。

砸钱就能得到流量、流量到了我这其他家就自然死亡,流量到我这以后就能盈利。

这些年,很多企业还是延续互联网思维来看待大模型。甚至认为大模型是远超互联网级别的超级变革。带来的产值和社会变革将会是几个数量级的提升。

这么大的蓝海,但凡有点野心的企业,都不敢错过。

互联网时代的经验仍未走远,这次无非是历史的第二次押韵。

美国研究机构提出了5000亿美元猜想,就是当前生成式AI的投入和产出,有着5000亿的巨大鸿沟。

大模型开局即打价格战,一打就是绝杀,直接降为零。

卷死了别人你未必能赚钱,大家各自卷自己,你的死去不代表别人也能生存。就好像一群在水平面底下的人,潮水涨起来,大家都会死,区别只是个子高的晚一点死而已。

产品同质化非常严重,留下了两种产品,一是代码生成,一是文字生成。这几乎是所有大模型的标准配置功能。

AI教育赚钱了,芯片大厂赚钱,唯独搞大模型的不赚钱。

今年10月,OpenAI获得史上最大一轮融资,融资金额高达66亿美元,这使其估值飙升至1570亿美元。美国彭博社援引消息人士的话说,除65亿美元的融资计划外,OpenAI还计划以循环贷款形式从银行筹集50亿美元。

紧跟着,OpenAI宣布推出名为canvas的新界面,它用OpenAI的最新主力模型GPT-4o构建,借助ChatGPT,进行不仅限于聊天的写作和编码项目工作。

不过,在OpenAI大举融资之际,OpenAI创始团队核心成员纷纷离职,此前,该公司首席技术官Mira Murati、首席研究官Bob McCrew和研究副总裁Barret Zoph均已经离职,融资之后,文生视频大模型Sora团队研发负责人Tim Brooks(蒂姆・布鲁克斯)也宣布离职,加入谷歌DeepMind。Tim Brooks表示,将在谷歌从事视频生成和世界模拟器方面的工作。

OpenAI备受资本市场重视的原因,除了其具备领先的生成式AI技术之外,也出于其背后庞大的市场规模,据预计,这一市场未来十年内将产生超万亿美元收入。

OpenAI目前已经拥有全球1.8亿个人用户和100万企业订阅用户。

一份媒体获得的OpenAI财务数据文件显示,OpenAI的8月收入同比去年增长3倍,预计今年ChatGPT将产生27亿美元收入,去年这一数字为7亿美元。OpenAI预计,到2029年其收入将达到1000亿美元,届时才能实现盈利。然而,在这一目标实现之前,公司必须承受巨额的亏损。OpenAI发布了一份令人瞩目的财务预测报告,指出公司在未来几年内可能面临巨大的财务压力。根据这份报告,OpenAI预计到2026年的亏损额将高达140亿美元,几乎是其今年预期亏损的三倍,而公司预计到2029年才能实现盈利。

OpenAI的财务文件显示,公司每年用于训练大型语言模型的支出高达数十亿美元,这是导致其亏损的主要原因之一。尽管OpenAI的现金消耗量远低于之前的预期,今年上半年公司仅烧掉了约3.4亿美元的现金,但未来几年现金消耗可能会急剧增加。

商汤科技加速淘汰人的同时,AI企业的大规模淘汰也开始加速了。去年,多家规模较小的AI企业被大型科技公司收购。大模型的战争,就从GPT一马当先,到国产大模型百模大战,再到行业格局固定,只剩大模型MiniMax、智谱AI、百川智能、月之暗面、零一万物、阶跃星辰被称为大模型公司“六小虎”和几个互联网大厂。从“新AI四小龙”,到“AI五小虎”“AI六小强”。

从做加法到做减法。

对于AI产业,只卷基础大模型,或许会是一段时间里,行业最大的失误。

一个最直接的原因就是,当所有资源全部被押注在基础大模型的研发上时,直接带来的,或许不是技术的突飞猛进,而是相同成果一遍遍的复现,反而带来算力与研发资源的极大浪费。

彼此之间的大模型,并没有什么本质区别。对用户而言,差异性几乎可以忽略不计。产生这样一种悖论,越是研发大量的投下去,大家的同质性越大。

大模型的生意怎么赚钱?

AI芯片厂商、B端大模型以及AI教育家,是目前在大模型真正赚钱的。而最被寄予厚望和最具想象力的C端,却一直没有大的波澜。

如果跟互联网时代相比,你就知道这件事多么反常,互联网时代最先爆发的都是C端,围绕大家的衣食住行展开。叫车、外卖、购物、社交、影音娱乐,这些都是大家喜闻乐见的场景。普通用户接受、使用起来有很高的意愿。大模型则不然,目前最经典的应用场景是写作和代码,提高生产力。很明显是“打工人”的专属场景,但是牛马还真看不上AI的能力。这就产生了第二个问题,获客成本。互联网时代,久而久之,用户对于平台会产生很强的依赖。最难是吸引用户,留存普遍而言不是个问题。但大模型从吸引到留存都是个问题,这导致用户的留存成本极高。为了吸引用户可以不惜代价打价格战,但是即便打赢了价格战,用户还留不住,这就不好持续作战了。

C端市场的最后一个角落都被占领了以后,大家才略带遗憾的去做B端生意。做过企业服务的都知道,B端生意是个苦活累活,挣得是一份辛苦钱。

C端的大模型产品不是没有,上来就基本延续互联网的打法,免费使用。先用免费的方式聚拢流量,然后再做增值服务的收费。比如,百度文心一言正式升级为“文小言”,加码AI搜索;近日,月之暗面也推出Kimi搜索版。

从体验上,没有质的区别。

比如以智谱AI为首的公司,将文生视频嵌入其自身的AIGC应用内,这类大多数见于自身AIGC应用本身流量较好,通过文生视频能够继续加强其影响力;相比之下,还有另一类大模型公司则是将文生视频作为单独的应用,如MiniMax推出的海螺AI,希望通过其自身产品的强大功能,创造出杀手级应用。在AI战略之外,被调动的还有企业的周边业务,如搜索、协同办公。在过去一年时间里,钉钉、飞书、企业微信这三家协同办公厂商也都不约而同地加入了AI功能,比如具有代表性的钉钉“魔法棒”和飞书的“My AI”。

无论是AI搜索、AI长文、文生视频、商汤科技的代码生成,这些是大模型“卷”得主流方向。有数据显示,ChatGPT每天的运营成本要达到70万美元。在这其中,不仅涉及卡的成本,还有能源成本和其他训练成本等等。比如,参数1750亿的GPT-3耗能1,287MWh,而参数2800亿的GPT-4耗能则达到1,750MWh,也就是说GPT-3每次回答要消耗0.0003kWh,而GPT-4的每次回答消耗0.0005kWh。

据报道,OpenAI训练GPT-5需要数万张英伟达H100芯片,也就是说,相应的服务器成本,将达到30亿人民币上下,如果再算上数据中心成本、人力成本、电力成本,以及无数次推倒重来的可能,需要的成本,几乎相当于国内头部大模型独角兽的融资总额之多。

行业正陷入“冰与火”的焦灼之中。而这背后,是市场逐渐对大模型祛魅,资本也回归理性,也只有当热潮退去,真正有价值的企业或应用才会浮现出来。

但短期来看,大模型创业公司为了活下去,则是ToB和ToC两手抓。除了持续探索AIGC类应用,以智谱为首的创业公司,已经开始大刀阔斧地开拓ToB市场,从2024年整体中标情况即可看出,在目前的大模型“六小虎”当中,智谱是中标最多的公司,然而从中标金额来看,其平均金额则要低于像电信运营商和百度智能云等大厂。

但是TO B的生意,到底有多大是市场驱动的很难说。而且毋庸讳言的是,大部分TO B生意都是项目制的,大模型是被套牌的对象。

总之,大模型已经迅速进入了淘汰赛阶段,未来的“战斗”必将更加精彩。谁会笑到最后,拭目以待吧。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version