ITBear旗下自媒体矩阵:

DeepSeek-V3.2-Exp模型开源发布,华为云适配,官方API价格直降超五成

   时间:2025-09-30 01:24:49 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

DeepSeek-V3.2-Exp模型近日正式登陆Hugging Face平台并全面开源,标志着该团队在下一代大模型架构研发中迈出关键一步。这一版本在继承V3.1-Terminus架构优势的基础上,首次整合了团队自主研发的DeepSeek Sparse Attention(DSA)稀疏注意力机制,通过动态调整计算资源分配,显著提升了长文本场景下的训练与推理效率。

据技术文档披露,DSA机制通过智能识别文本中的关键信息节点,构建局部-全局混合注意力网络,在保持模型性能的前提下,将计算资源消耗降低了约30%。实验数据显示,在处理16K以上长序列时,该机制可使推理速度提升22%,同时维持98.7%的原始准确率。华为云技术团队已完成与该模型的深度适配,现支持最高160K字符的上下文窗口,为法律文书分析、科研论文解析等长文本应用场景提供技术支撑。

伴随技术突破的是服务成本的实质性下降。DeepSeek官方宣布即日起全面下调API调用价格,降幅超过50%,新定价体系已同步至官网、移动端应用及小程序平台。此次调价后,该模型在同等性能区间内形成显著价格优势,特别在长文本处理场景中,单位token成本较前代产品下降62%,为中小企业和开发者提供更具性价比的解决方案。

技术专家指出,DSA机制的引入不仅优化了计算效率,更通过稀疏化设计减少了模型对硬件资源的依赖。在华为云昇腾AI集群的实测中,搭载DSA的V3.2-Exp模型在保持每秒3200 token生成速度的同时,将GPU内存占用从48GB压缩至32GB,这种优化使得单卡可处理更长的文本序列,有效降低了分布式训练的通信开销。

目前,开发者社区已涌现出基于该模型的长文本摘要、多轮对话生成等创新应用。某金融科技公司利用升级后的模型,将季度财报分析时长从4小时缩短至1.2小时,准确率提升至99.3%。随着生态工具链的完善,预计未来三个月将有超过200个垂直领域应用完成适配。

 
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version