在人工智能领域,一场由ChatGPT引发的革命性变革自2022年底起持续发酵。这场变革不仅吸引了业界和学界的巨头纷纷加入大模型的激烈竞争,还促使各路资本投入数百亿人民币,共同探索大模型的无限可能。
在这场变革中,参与者逐渐分化为三大流派。一派是拥有雄厚实力和丰富资源的互联网大厂,它们凭借云服务和生态系统,将大模型作为入口,稳固并扩大客户基础。另一派则是新锐创业独角兽,它们由明星创业者领衔,背后有众多投资机构支持,聚光灯下备受瞩目。而第三派,则是在各自领域内已有一定成就的“中厂”,它们既不像大厂那样资金充裕,也不像创业公司那样无拘无束,但它们在数据、场景和用户方面的长期积累,使它们成为大模型商业化落地的关键。
相较于前两派备受瞩目的地位,中厂往往被忽视,但它们在大模型行业的角色至关重要。中厂通过多年的积累,形成了独特的数据、场景和用户优势,能够将大模型从理论设想转化为切实可行、能够被各行各业真正应用的技术。2024年,大模型行业的关键词正是“商业化落地”。
在港股上市的移卡(09923.HK),作为一家历经13年发展的科技公司,面对大模型的浪潮,也在积极探索如何运用新的AI技术来赋能原有业务场景。作为AI 2.0时代的“中厂”代表,移卡在大模型策略上展现出与众不同的思路,这或许是中厂实现大模型价值的最短路径。
移卡执行董事兼CTO罗小辉认为,中厂无需与BAT和AI创业独角兽硬拼底层大模型技术。大厂和独角兽在参数规模、模型性能等硬条件上发力,而中厂则更适合利用大模型能力维护基本盘,基于大模型实现具体场景的应用。他强调,技术只是手段,最终能否立足取决于在具体场景中的商业化应用。
在实际操作中,中厂发现AI落地的“最后一公里”并不容易。通用大模型虽然泛化能力强,但难以深入理解企业的Knowhow,容易变得不切实际。而大厂布局的行业大模型,虽然更接近客户企业,但在面对客户基于原生业务场景的需求时,也难以完美应对。技术和应用之间的鸿沟对所有玩家来说都是挑战。
移卡在面对这一挑战时,选择了自己摸索技术和本地业务结合的方式。从创始人CEO刘颖麒到CTO罗小辉,他们都是腾讯体系内技术线的佼佼者,也是坚定的AI技术自研派。2017年,移卡就成立了人工智能实验室,寻求AI降本提效的机会。随着大模型赛道的火爆,移卡开始逐步探索AI与支付业务的结合。
在To B业务中,移卡作为甲方,拥有场景、基层B端用户、一手优质数据和行业认知等优势。它们能够更贴近客户需求,解决行业痛点。移卡在本地生活服务场景中,针对图片、文案生成、短视频剪辑等需求,完成了一系列技术产品的支持,并大幅优化了内容制作成本和效率。
智能客服是AI的另一个典型场景。移卡通过清洗、整理、调用过去10年间与客户对话解决问题的文字、语音数据,基于“大模型+RAG”框架开发的智能化客服系统,在用户体验上取得了显著提升。上线半年,用户自助率增长超30%,达到近90%。
尽管AI 2.0时代人们更偏爱“标品化”和“开箱即用”,但B端企业本地化部署的需求仍然存在。移卡看到了这一点,利用大模型开源生态的繁荣,进行了代码生成模型的私有化部署,确保了数据安全,并凸显了本地化训练的优势。移卡自研的“AI编程助手”产品在代码生成、注释、解释、纠错等方面表现出色,平均代码采纳率超过20%。
中厂在本地化部署方面具有独特优势。大厂依托云平台,倾向于将客户拉拢到自己的PaaS和IaaS产品上,而本地化部署与它们的逻辑不符。创业独角兽则通常缺乏足够的To B经验和项目团队。移卡较早地发现了本地化部署的潜力,并将其付诸实践,认为只有本地化才能最大化大模型的价值。
移卡将继续用生成式AI技术提升几个确定性较高的产品服务,包括聚焦出海需求、生成高质量业务素材以及赋能内部组织效率等。罗小辉表示,AI的投入产出需要不断磨合和把握,需要坚定的信念来支撑。尽管外部供应商众多,但移卡选择自己做大模型,这与企业的技术基因和对未来的信念密切相关。