百度今日正式推出其最新一代原生全模态大模型——文心5.0正式版。这款模型拥有2.4万亿参数规模,采用原生全模态统一建模技术,能够同时处理文本、图像、音频和视频等多种信息类型,实现跨模态的理解与生成。目前,个人用户可通过文心App或文心一言官网体验该模型,企业与开发者则可通过百度千帆平台进行调用。
在技术架构方面,文心5.0采用统一的自回归框架,将不同模态的数据在单一模型中联合训练。这种设计使得文本、图像、视频和音频等特征能够在统一架构下深度融合,从而实现更高效的多模态理解与生成能力。相较于传统分模态训练方式,该技术路线显著提升了模型对复杂场景的综合处理能力。
据百度披露的评测数据显示,文心5.0在40余项权威基准测试中表现优异,其语言理解和多模态综合能力已超越Gemini-2.5-Pro、GPT-5-High等国际主流模型,稳居全球第一梯队。特别是在跨模态信息整合与复杂逻辑推理任务中,该模型展现出显著优势。
为优化模型效率,文心5.0引入超大规模混合专家结构,通过超稀疏激活参数设计将激活参数比例控制在3%以下。这种创新架构在保持模型性能的同时,大幅提升了推理效率,有效降低了计算资源消耗,为大规模商业化应用奠定了基础。
在专业领域适配方面,百度组建了由835位专家构成的"文心导师"团队,成员涵盖科技、金融、文化、教育、医疗、能源等十余个重点行业,以及数理化生文史哲等基础学科领域。这些专家通过知识传授、鉴赏评价和专业校准等方式,持续优化模型在逻辑严谨性、专业深度、创意质量和价值观对齐等方面的表现。







