在人工智能芯片市场竞争日益激烈的背景下,移动通信巨头高通宣布推出两款机架级AI加速器——AI200与AI250,标志着其正式向数据中心领域发起全面进攻。这一战略转型不仅体现在产品层面,更通过每年迭代新品的发布节奏,展现出与英伟达、AMD等传统巨头正面交锋的决心。
据公司披露,两款新品均基于自主研发的神经处理单元(NPU)架构,在内存配置上实现突破性创新。其中,计划于2026年量产的AI200单卡配备768GB LPDDR内存,容量达到英伟达GB300 GPU(288GB HBM3e)的2.6倍。高通特别强调,该产品专注于AI推理场景,通过优化内存带宽与功耗比,为生成式AI应用提供更具成本优势的解决方案。
更引人注目的是将于2027年面市的AI250,其搭载的"近存储计算"架构被宣称可带来"跨代性能飞跃"。高通透露,该技术使有效内存带宽提升超10倍,同时将系统功耗控制在单机柜160千瓦水平。两款产品均采用直接液冷散热方案,支持PCIe纵向扩展与以太网横向扩展,满足现代数据中心对灵活部署的需求。
资本市场对高通此举反应强烈。新品发布当日,公司股价开盘即飙升近20%,最终收涨约10%。分析人士指出,高通通过强调"总拥有成本(TCO)优势",精准切中了数据中心运营商对降本增效的迫切需求。公司边缘解决方案与数据中心业务高级副总裁Durga Malladi表示:"这些创新方案将重新定义机柜级AI推理的可能性,使客户能以前所未有的成本效益部署生成式AI。"
在生态合作方面,高通已与沙特国家级AI企业Humain达成战略合作,后者将成为新品的首个规模部署客户。根据协议,Humain计划自2026年起采购总功率达200兆瓦的AI200/AI250机架解决方案,用于建设下一代AI基础设施。
此次战略转型背后,是高通对业务结构的深度调整。尽管当前手机芯片仍贡献其半导体收入的70%(上一财季达63.3亿美元),但智能手机市场增速放缓与大客户自研芯片的趋势,迫使公司加速开拓新增长极。麦肯锡研究显示,到2030年全球数据中心资本支出将达6.7万亿美元,其中AI芯片系统占比显著。面对英伟达主导的市场格局,OpenAI、谷歌、亚马逊等科技巨头已纷纷布局自研芯片,为高通创造了突破契机。
关于制造环节,高通拒绝透露具体代工伙伴,但确认三星与台积电均在其供应链体系。随着AI200/AI250的推出,这家传统移动芯片供应商正通过技术创新与生态合作,试图在价值数万亿美元的数据中心市场占据一席之地。






