ITBear旗下自媒体矩阵:

聚焦RTE2024,声网创始人兼CEO赵斌现场发布“RTE+AI能力全景图”

   时间:2024-10-26 16:02:17 来源:速途网作者:顾青青编辑:瑞雪 发表评论无障碍通道

【ITBEAR】10月26日讯 近日,由声网和RTE开发者社区联合主办的RTE2024第十届实时互联网大会在北京正式开幕,本届大会主题为“AI爱”,覆盖AI、出海、社交泛娱乐、IoT、VoiceAI、空间计算等20+行业及技术分论坛。在RTE2024主论坛上,声网创始人兼CEO赵斌、LeptonAI创始人兼CEO贾扬清、声网首席科学家、CTO钟声分别带来主题演讲。

赵斌分享了声网十年以来专注实时互动行业的深刻洞察,以及他对RTE在生成式AI时代下未来发展的趋势判断,并现场宣布推出RTE+AI能力全景图。贾扬清则站在AI基础设施的视角下,分享了他对AI应用、云、和GPU算力云技术的独到观点。钟声的主题演讲聚焦在对实时AI基础设施的探讨上,并分享了AI与RTE结合的前沿技术实践。

赵斌:生成式AI将驱动IT行业四大变革

生成式AI正在驱动IT行业发生大变革,赵斌认为,这一趋势主要体现在四个层面:终端、软件、云和人机界面。在终端上,大模型能力将驱动PC和Phone往AIPC和AIPhone的方向进化。在软件上,所有的软件都可以、也将会通过大模型重新实现,并从SoftwarewithAI发展至AINativeSoftware。在云的层面,所有云都需要具备对大模型训练和推理的能力,AINativeCloud将成为主流。人机界面的主流交互方式也将从键盘、鼠标、触屏变成自然语言对话界面(LUI)。

随着生成式AI成为下个时代IT行业进化的主题,RTE也成为了多模态应用和基础设施中一个关键的部分。10月初,声网的兄弟公司Agora作为语音API合作者,出现在了OpenAI发布的RealtimeAPI公开测试版中。

在此次大会中,赵斌表示,声网与MiniMax正在打磨中国第一个RealtimeAPI。赵斌也展示了声网基于MiniMaxRealtimeAPI打造的人工智能体。在演示视频中,人与智能体轻松流畅的进行实时语音对话。当人类打断智能体并提出新的疑问时,智能体也能够非常灵敏的快速反应,实现了与人类自然流畅的对话。

在生成式AI的大潮下,RTE将会提供更为广阔的空间。赵斌也在分享中宣布,声网正式发布了RTE+AI能力全景图。在全景图中,声网从实时AI基础设施、RTE+AI生态能力、声网AIAgent、实时多模态对话式AI解决方案、RTE+AI应用场景五个维度,清晰呈现了当下RTE与AI相结合的技术能力与应用方案。生成式AI与RTE结合带来的场景创新,将成为下一个十年的主题。

过去十年,声网不仅见证并推动了RTE从一个理念变成一个行业的过程,更身体力行的打破了国内实时音视频领域的三无状态。赵斌称,10年前行业内没有行业会议、专业书籍、以及专业媒体和社区。如今,RTE大会迈入第10年,声网也于今年8月正式出版行业首本系统介绍实时互动的技术型科普图书《读懂实时互动》,同时,RTE开发者社区也持续繁荣,加速推动。

贾扬清:AI是云的第三次浪潮

随着AI技术的发展,AI时代的大模型应用开发、AI云、以及GPU等基础设施建设逐渐成为热门话题,也成为了支撑整个行业发展、催生新应用诞生、新商业价值实现的基本底座。LeptonAI创始人兼CEO贾扬清在RTE2024主论坛上分别从AI应用、云、GPU算力云技术以及企业大模型自主性等层面带来了他对AI基础设施进化的解读。

针对AI应用,贾扬清指出,今天是最容易建设AI应用的时代,越是简洁的AI模型思路越容易产生优秀的效果。AI能力加持后,应用本身的开发范式也在从数据、模型、应用构建三个维度发生变化,未来的应用开发将从“以流程为中心”转化为“以模型为中心”。

除了AI应用层面,传统的云架构也在大模型、GPU优化等需求的催化下发生了翻天覆地的变化。贾扬清认为,AI是云的第三次浪潮,继Web云、数据云之后,AI将成为第三朵云。AI云有以下三个特征:算力会成为智能的基础、AI云需要大量计算与大规模的异构集群,以及少量但高质量的通讯。总体而言,云的产品形态,本质是计算和传输的平衡。

贾扬清指出,在AI云的形态下,实时的交流和智能的结合在用户体验环节非常重要。毫不夸张的说,实时将直接与生产力划上等号。

企业在构建自己的大模型自主性上,到底该如何决策?贾扬清强调,企业应该将开源和闭源大模型都纳入考虑范畴。采用开源模型+定制化的优势不仅仅是具备更强的可定制性,还有更低的成本以及更高的速度,开源+定制化能够达到比闭源模型更好的效果。

钟声:分布式端边云结合的AI系统将成为现代基础设施的基本形态

在已经到来的AI时代,现代化基础设施应该是什么样?声网首席科学家、CTO钟声提到,大量用户设备往往会先接入边缘节点、并在需要的时候再接入云端,数据将在端设备、边缘节点和云之间往返传递。AI时代的数据中心会包含以大量异构算力组成的超级计算集群(SuperScaler)。

但是,停留在仅依赖超级计算集群的系统是远远不够的,万亿参数、多模态引入所造成的高昂计算成本、缺乏机制约束的数据隐私保护、几秒钟的延时都将阻碍大模型的普惠,极大地限制其在很多场景下的应用。

钟声认为,分布式端边云结合的AI系统将有效解决这些痛点。这个系统将把计算和传输在各节点做合理地配置,系统会智能地以自适应的方式把任务编排到端与边上执行,非常有效地降低了成本,同时提供了更低延时(低于1秒级的响应速度)、更高网络抖动容忍度、优秀的抗噪声能力,并且完整的用户数据只会保留在端上。

分享过程中,钟声还在大会现场演示了一个由STT、LLM、TTS、RTC四个模块组成的端边结合实时对话AI智能体,这也是全球首次有厂商在比日常实际场景更具挑战的环境下展示实时AI对话能力。大会现场观众规模超过千人,面临复杂的噪声、回声、麦克风延迟等困难,但智能体与钟声的互动仍然表现出了优秀的对话能力,在普通5G网络环境下实现了流畅、自然、有趣的双向实时对话,对话模型的极快响应速度、及时打断与被打断的自然程度、对抗噪声能力、遵循语音指令做等待能力都非常突出。

正如钟声在最后分享的,随着端设备的多样化以及能力的提升,AI基础设施会变得更优化合理,使得AI无处不在,AI助理、AI分身帮助我们有效缓解时间稀缺性,改善工作效率和生活体验。

圆桌:AI的6000亿难题,从基础设施到商业化落地

AI的6000亿美元难题,一直都是整个行业非常关心的话题,在圆桌讨论环节中,LeptonAI创始人兼CEO贾扬清、MiniMax合伙人魏伟、面壁智能联合创始人&CTO曾国洋、HuggingFace工程师王铁震、Agora联合创始人TonyWang五位嘉宾一起探讨了从AI基础设施到AI商业化落地的机会与挑战。

针对商用大模型和开源大模型未来的发展趋势,贾扬清分享了两个核心观点:其一,同等质量模型的Size会变得越来越小,计算效率会越来越高,模型架构也会变得更加开放和标准。其二,除了极少数头部公司之外,越来越多的企业会采用开源架构来做下一代模型。因此,开源架构的应用会变的越来越普遍,通过开源架构训练出来的模型也都会有各自不同的风格。

王铁震则表示,我们将在未来看到越来越多Infra和Realtime的工作,大家不仅需要关注开源模型本身,还需要重视开源模型的基础设施和数据闭环,才能把开源模型跑得更好、更快。Realtime需要TTS、也需要大模型,如果能够通过一些方式放在一起,放在边缘侧、离用户更近的地方,才能产生非常好的效果。

关于如何看待音视频多模态模型的实际应用潜力,魏伟表示,随着多模态的出现,生成式人工智能的边界一定会被继续拓展,并加速这一产业的变革。从产品和用户服务过程中魏伟发现,文本、语音、音乐、视频这些模型可以很好的帮助艺术、影视、音乐等领域的创作者极大地提高效率,并为他们提供新的思路和方法。

针对大模型技术巨大的成本使用问题,曾国洋分享到,随着技术的前进,算力一定会变得越来越便宜,相同能力的模型规模也会变得越来越小,但算力成本优化会最终转化为训练更强大的模型。真正达到AGI水平之前,我们只能感受到模型在变得越来越强,很难感受到成本的变化。他还提到,由于面壁智能是做端侧模型的,所以很关注如何让模型在端上跑得更快,在实际部署过程中,他们会用各种量化压缩甚至是稀疏化方法去优化实际部署的开销。

总结来说,TonyWang认为想要推动AIInfra到模型、再到商业化落地,技术驱动和成本是最核心的两个点。在产品真正走向市场的过程中,流量和口碑也是关键。

过去十年,声网不仅见证并推动了RTE从一个理念变成一个行业的过程,更身体力行的打破了国内实时音视频领域无行业会议、无专业书籍、无专业媒体及社区的三无状态。自此,RTE大会迈入第10年,行业首本系统介绍实时互动的技术型科普图书《读懂实时互动》于今年8月正式出版,RTE开发者社区也正在秉持着“开放、连接、共创”的理念加速实时互动和AI的共生。

未来,声网将继续和大家一起,站在全新的起点、拥抱繁荣且充满挑战的AI+RTE新时代。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version