中国科学院自动化研究所科研团队近日在人工智能领域取得里程碑式突破——全球首款基于国产算力的类脑脉冲大模型"瞬悉1.0"(SpikingBrain-1.0)正式问世。该成果由李国齐、徐波团队联合沐曦metaX共同研发,标志着我国在类脑计算与大模型融合领域迈入世界前沿。

与传统Transformer架构不同,"瞬悉1.0"采用类脑脉冲神经网络(SNN)架构,通过模拟人脑神经元的脉冲发放机制实现信息处理。这种仿生设计使其在处理超长序列数据时展现出独特优势,特别适用于法律文书分析、医学影像解读等需要处理海量连续信息的场景。研究显示,该模型在处理万字级文本时,推理效率较传统模型提升数十倍。
研发团队创新性地提出"内生复杂性"架构理论,在国产千卡GPU集群上构建了完整的训练推理体系。项目负责人介绍,团队不仅开源了70亿参数的基础版本,更推出760亿参数的高阶模型测试平台,为全球研究者提供全新研究范式。值得关注的是,所有技术实现均基于国产GPU算力,验证了我国自主可控AI生态的可行性。

技术突破体现在多个层面:研发团队构建了适配国产硬件的高效训练框架,开发了专用Triton算子库优化计算效率,创新模型并行策略显著提升集群通信效率。这些技术积累使"瞬悉1.0"在处理复杂序列时,能耗较传统模型降低40%,而推理速度提升3-5个数量级。
在应用测试阶段,模型展现出强大潜力。某三甲医院使用该模型处理电子病历时,诊断建议生成时间从分钟级缩短至秒级;法律机构在合同审查场景中,模型可同时处理百份文档并精准提取关键条款。这些实践验证了类脑架构在专业领域的实用价值。

行业专家指出,这项成果将推动神经形态计算理论发展,为下一代AI芯片设计提供全新思路。不同于传统冯·诺依曼架构,类脑计算范式可能催生新型硬件形态,重构人工智能的技术底层逻辑。目前,团队正与多家芯片企业合作,探索模型架构与硬件设计的协同优化。
该研究的开源策略引发全球关注。70亿参数版本的完全开源,为中小研究机构提供了接触前沿技术的机会。国际AI社区评价,这种开放态度将加速类脑计算技术的全球发展,形成新的技术生态竞争格局。

随着"东数西算"工程推进,国产算力生态持续完善。研究团队透露,下一代模型将融合量子计算技术,探索更高效的神经元模拟方式。这项始于基础理论的研究,正逐步转化为改变行业格局的技术力量,为我国在全球AI竞赛中赢得战略主动权。
