在刚刚过去的春节假期,一款名为DeepSeek的AI产品席卷全球科技圈,成为科技新闻中的绝对焦点。这款由中国科技公司深度求索推出的AI推理模型,不仅引发了业界的广泛关注,更在全球范围内掀起了新一轮的AI竞赛热潮。
故事的起点可以追溯到1月20日,深度求索正式发布了DeepSeek-R1模型。这款模型以令人瞩目的低成本,实现了与OpenAI最新模型GPT-o1相当的性能表现。据悉,DeepSeek-R1的预训练费用仅为557.6万美元,远低于OpenAI等竞争对手的数亿美元投入。这一消息迅速在全球范围内传播开来,引发了科技界的持续关注和热烈讨论。
紧接着,DeepSeek的火爆势头一发不可收拾。在R1发布后的短短十天内,这款AI产品先后登上了中国、美国等70多个国家苹果应用商店下载榜的榜首。这是全球范围内,首次有产品能够超越OpenAI的ChatGPT,成为AI领域的新宠。这一成就不仅让DeepSeek声名鹊起,更让美国科技公司感受到了前所未有的压力。
然而,DeepSeek的火爆也引发了一些担忧。随着对算力需求的激增,华尔街开始担心这是否会对市场产生负面影响。1月27日,美国主要科技股市值开盘后大幅缩水,其中英伟达股价更是跳水16.86%,市值蒸发5890亿美元。这一连串的股价暴跌,无疑为DeepSeek的火爆势头蒙上了一层阴影。
尽管面临诸多质疑和挑战,但DeepSeek依然以其卓越的性能和低廉的成本,赢得了国内外众多用户和开发者的青睐。据悉,DeepSeek背后的深度求索是一家创立于2023年的年轻公司,但其母公司幻方量化却是国内头部量化交易公司,管理着超过1000亿元的资产。在多年前,幻方量化就开始涉足AI研究,为DeepSeek的日后发展奠定了坚实的基础。
DeepSeek的成功并非偶然。其创始人梁文锋最早开启AI研究的初衷,是用GPU计算交易仓位、训练量化交易模型。此后,出于探索AI能力边界的好奇,他们囤积了过万块先进GPU芯片开始训练AGI模型。这一大胆的尝试,为DeepSeek日后的模型进展打下了坚实的基础。同时,DeepSeek还通过算法优化和模块化设计,显著降低了训练和推理成本,实现了“低成本、高性能”的目标。
DeepSeek的模块化设计是其成功的关键之一。传统大模型在处理问题时需要激活全部参数,而DeepSeek则会先判断问题类型,再精准调用对应模块。这种设计不仅提高了模型的响应速度,还降低了能耗。同时,DeepSeek还通过“数据蒸馏”技术,用更少的数据量达到了同等效果,进一步促成了成本的下降。
除了技术上的创新,DeepSeek还坚持免费开源的主张。这一决策得到了许多行业专家和投资者的赞许。英伟达高级研究科学家Jim Fan评论称:“我们生活在这样一个时代,一家非美国公司正在让OpenAI的初衷得以延续,即做真正开放、为所有人赋能的前沿研究。”硅谷风投A16Z创始人Marc Andreessen也表示,DeepSeek-R1是他见过的最令人惊叹且令人印象深刻的一个突破。
DeepSeek的开源策略不仅挑战了传统大厂的技术垄断,还为更多公司和开发者提供了模型底座。这一举措有助于快速建立生态,获得更多的用户和开发者支持。同时,DeepSeek所选择的模块化模型设计,也为其构建了难以复制的技术壁垒。竞争对手无法简单照搬其原始模型,而越多的用户和开发者使用DeepSeek,则意味着模型得到更多的训练和优化。
在当前AI竞争格局下,开源不仅是DeepSeek的技术策略,更是其参与制定行业规则的关键落子。通过开源基础模型吸引开发者,DeepSeek未来将逐步通过企业版工具链推进商业化。这一举措有望打破大模型发展沦为巨头与资本游戏的行业共识,为业内追赶美国大模型的中国公司们提供一条新的思路。
值得注意的是,DeepSeek的成功并非一帆风顺。在早期阶段,其MoE模型的误判率普遍较高。但通过引入强化学习优化路由决策和长期训练,DeepSeek团队最终将误判率控制在了个位数的低位。这一过程中展现出的技术创新和坚持不懈的精神,正是DeepSeek能够脱颖而出的重要原因。
DeepSeek的成功不仅为中国科技公司赢得了国际声誉,更为全球AI领域带来了新的活力和可能性。在未来的发展中,DeepSeek将继续坚持开源和创新的原则,推动AI技术的普及和应用。同时,我们也期待更多像DeepSeek这样的创新公司涌现出来,共同推动全球AI领域的进步和发展。