ITBear旗下自媒体矩阵:

MIT研发全新光子芯片,开启超高速AI计算新时代

   时间:2024-12-07 20:14:37 来源:DeepTech深科技作者:DeepTech深科技编辑:瑞雪 发表评论无障碍通道

在机器学习领域,深度神经网络模型的复杂性和规模不断攀升,给传统电子计算硬件带来了前所未有的挑战。然而,一种全新的光子芯片的出现,或许将为这一难题提供解决方案。

这款光子芯片由MIT等机构的科学家研发,是完全集成的光子处理器,能够在芯片上通过光学方式完成深度神经网络的所有关键计算。相较于传统电子计算方案,光子硬件通过光进行计算,速度更快且更节能。然而,以往光子设备无法完成某些类型的神经网络计算,需要借助芯片外的电子元件,限制了速度和能效。

研究团队突破了这一瓶颈,开发出非线性光学功能单元(NOFU),结合了电子和光学技术,使得在芯片上实现非线性操作成为可能。他们构建的光学深度神经网络,使用了三层设备来完成线性和非线性操作的结合,功能强大。

在测试中,这款光子系统的准确率超过96%,推理阶段的准确率也达到了92%以上,且能在不到半纳秒内完成关键计算。其性能媲美传统硬件,为激光雷达、天文与粒子物理领域的科学研究,以及高速通信等高计算需求的应用带来了更快速、更高效的深度学习能力。

深度神经网络由多个相互连接的节点或神经元层组成,这些神经元对输入数据进行操作以生成输出。其中,最关键的操作之一是矩阵乘法,让数据在层与层之间传递的过程中完成转换。然而,除了线性操作外,深度神经网络还需要执行非线性操作,如激活函数,这些操作使模型能够学习更复杂的模式。

早在2017年,MIT的研究团队就展示了基于单片光子芯片的光学神经网络,能够利用光完成矩阵乘法。然而,当时这款设备无法在芯片上完成非线性操作,需要将光学数据转换为电信号,发送到数字处理器进行非线性运算。研究团队指出,光学中的非线性非常具有挑战性,因为光子之间很难相互作用,触发光学非线性需要消耗大量能量。

为了克服这一难题,研究团队开发出了NOFU设备,使得在芯片上实现非线性操作成为可能。他们构建的光学深度神经网络,通过可编程的光束分离器对输入数据进行矩阵乘法操作,然后将数据传递到NOFU进行非线性运算。这种方法无需外部放大器,能耗极低,且整个计算过程中操作始终保持在光学域中,直到最后一步读取结果,实现了极低的延迟。

超低延迟的实现让团队能够高效地在芯片上训练深度神经网络,这种“原位训练”在传统数字硬件上通常会消耗大量的能量。这一技术尤其适用于需要直接处理光信号的系统,如导航或通信系统,也适用于需要实时学习的设备。

研究团队开发的系统从一开始就将深度神经网络的参数编码到光信号中,然后通过一系列操作完成计算。整个电路通过与生产CMOS计算机芯片相同的基础设施和代工工艺制造,可以利用成熟的技术实现芯片的大规模生产,并将制造过程中的误差降至极低水平。

MIT的研究团队表示,未来研究的重点将是扩大设备规模,并与现实中的电子系统(如摄像头或通信系统)集成。团队还计划探索能够充分利用光学优势的算法,以实现更快、更高效的系统训练。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version