ITBear旗下自媒体矩阵:

​中科院发布SpikingBrain-1.0类脑模型,长序列处理提速百倍,国产AI新突破?​

   时间:2025-09-08 21:03:30 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

中国科学院自动化研究所近日宣布,其自主研发的类脑脉冲大模型SpikingBrain-1.0正式亮相。该模型依托国产GPU算力平台,实现了从训练到推理的全流程自主化,其创新的类脑架构与超长序列处理能力,为国产AI基础模型开辟了新路径。

类脑架构的核心优势在于其线性复杂度设计。研究团队通过模拟大脑信息处理机制,使模型在处理超长序列时具备显著效率。在国产GPU的实测中,该模型展现了惊人性能:处理1M长度序列时,TTFT(提交提示到生成首个Token的时间)较主流大模型提升26.5倍;处理4M长度时,速度提升超100倍。即便在手机CPU端,面对64k-256k长度的序列,其解码速度也较Llama3.2同规模模型提升4.04倍至15.39倍。这些数据印证了类脑架构在超长序列处理中的巨大潜力。

技术层面,SpikingBrain-1.0采用脉冲神经元构建线性混合模型,核心创新包括自适应阈值神经元模型与虚拟时间步策略。自适应阈值模型模拟生物神经元脉冲发放过程,虚拟时间步策略则实现“电位-脉冲”的精准转换。通过动态阈值脉冲化编码方案,模型将90%以上的稠密连续值矩阵乘法替换为事件驱动的脉冲化算子,兼顾了高性能与低能耗。团队开发了适配国产GPU集群的高效训练框架、Triton/CUDA算子库及模型并行策略,为全流程训练与推理提供了技术保障。

在产业应用方面,SpikingBrain-1.0在超长序列科学任务中展现出显著优势。例如,在复杂多智能体模拟、DNA序列分析及分子动力学轨迹建模等场景中,其高效处理能力可大幅提升效率。模型已适配Huggingface框架下的多卡序列并行推理,并支持4M长度的Prefill,为实际应用提供了便利。更值得关注的是,研究团队开源了SpikingBrain-1.0-7B模型,为类脑研究生态的构建提供了重要资源。

未来,研究团队计划进一步探索神经元动态与人工智能算子的机制联系,构建神经科学与AI的桥梁。通过整合生物学见解,他们期望突破现有人工智能瓶颈,开发低功耗、高性能且支持超长上下文窗口的类脑通用智能模型,为类脑芯片设计提供理论支撑。类脑计算架构的兴起,或将为AI芯片领域带来新的变革。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version