在2024年杭州云栖大会上,阿里云CTO周靖人揭示了公司围绕AI时代构建新型基础设施的宏伟蓝图。他宣布,阿里云正致力于树立AI基础设施新标杆,通过全面技术架构体系升级,力求将数据中心蜕变为一台超级计算机,旨在为各类AI应用提供卓越、高效的算力服务。
据ITBEAR了解,阿里云在大会上推出了重磅升级的基础模型,其性能可媲美业界领先的GPT-4o。同时,公司还发布了强大的开源模型Qwen2.5系列,并增添了100多款涵盖语言、音频、视觉等领域的全模态模型。值得一提的是,通义开源模型已累计实现超过4000万的下载量,原生及衍生模型总数突破5万,跻身至全球顶尖模型群之列。
周靖人强调,随着AI时代的来临,对基础设施的性能与效率要求愈发严苛。阿里云正积极响应这一变革,以AI为核心对底层硬件、计算、存储、网络等进行全面重构,并与AI场景深度融合,旨在加速模型的开发与应用进程,从而构筑起AI时代的坚固基石。
在产品升级方面,阿里云展示了磐久AI服务器、支持GPU容器的ACS服务、高性能网络架构HPN7.0以及CPFS文件存储等一系列创新成果。这些产品的推出,显著提升了AI训练、推理、部署及应用的全生命周期效率。
此外,阿里云还宣布了通义千问三款核心模型的显著降价,最高降幅达到85%,进一步降低了企业使用大模型的门槛。目前,已有众多知名企业客户接入通义大模型,预计未来将在更多行业激发AI算力的新增长。
在开放与合作方面,阿里云持续推动大模型的开源与普惠,通过魔搭社区等平台,助力开发者和企业轻松获取与应用最先进的大模型技术。
周靖人总结道,阿里云已做好充分准备,以应对即将到来的GPU算力指数级增长需求,尤其是推理市场的蓬勃发展。公司将继续投入先进AI基础设施的建设,加速大模型技术在各行各业的广泛应用。
#阿里云# #AI基础设施# #通义大模型# #算力服务# #开源模型#