在2024杭州云栖大会上,阿里云CTO周靖人揭示了阿里云围绕AI时代构建新型基础设施的宏大计划。该计划旨在通过全面技术架构体系的升级,使数据中心蜕变为超级计算机,为各类AI应用提供强劲、高效的算力支持。
周靖人强调,随着AI时代的来临,对基础设施的性能和效率要求愈发严苛。传统的CPU主导的计算体系正迅速向GPU主导的AI计算体系转变。为此,阿里云正致力于以AI为核心,对底层硬件、计算、存储、网络等进行全面重构,并与AI场景深度融合,以加速模型的开发与应用。
据ITBEAR了解,阿里云在大会上展示了其AI驱动的全系列产品家族的最新升级。其中包括支持单机16卡、显存高达1.5T的磐久AI服务器,以及首次推出的GPU容器算力服务。此外,还有为AI设计的高性能网络架构HPN7.0和提供指数级扩展存储能力的CPFS文件存储等。
在模型方面,阿里云宣布通义大模型家族迎来重磅更新。基础模型性能获得显著提升,与GPT-4o相媲美。同时,开源模型Qwen2.5系列的发布,进一步丰富了通义大模型的生态。值得一提的是,通义开源模型累计下载量已突破4000万,成为全球范围内备受瞩目的模型群之一。
周靖人还表示,阿里云将持续投入先进AI基础设施的建设,以降低模型算力成本,推动企业使用模型的成本不断下降。这一举措有望加速大模型在各行业的广泛应用,带来新一轮的AI算力增长。
此外,阿里云还宣布了通义千问三款主力模型的降价措施,最高降幅达85%。这一举措将进一步降低大模型调用的门槛,推动大模型的普及和惠及更多企业和开发者。
随着AI技术的不断演进和应用场景的日益丰富,阿里云以其强大的技术实力和前瞻性的战略布局,正努力引领AI基础设施和大模型领域的发展潮流。#阿里云# #AI基础设施# #通义大模型# #算力升级# #AI时代#