并行卷积光处理器推动的人工智能

矩阵乘法光处理器

光运算矩阵乘法的处理器的原理图。资料来源:牛津大学

在我们的数字时代,数据流量的指数增长对处理能力提出了一些真正的挑战。而随着机器学习和人工智能的出现,例如自动驾驶汽车和语音识别,这一上升趋势将继续下去。所有这些都给目前的计算机处理器的能力带来了沉重的负担,以满足需求。

现在,一个由国际科学家组成的团队已经开始着手解决这个问题。研究人员开发了一种新的方法和架构,通过使用基于光的或“光子”处理器,将处理和数据存储结合到单个芯片上。这种芯片处理信息的速度和并行性都要快得多,超过了传统的电子芯片。

科学家们为所谓的矩阵-向量乘法开发了一个硬件加速器。矩阵-向量乘法是神经网络(模拟人脑的算法)的主干,而神经网络本身也被用于机器学习算法。由于不同波长的光(颜色)不会相互干扰,研究人员可以使用多个波长的光进行并行计算。但为了做到这一点,他们使用了EPFL开发的另一项创新技术,一种基于芯片的“频率梳”作为光源。

矩阵乘法光处理器原理图

光运算矩阵乘法的处理器的原理图。资料来源:牛津大学

“我们的研究首次将频率梳应用于人工神经网络领域,”EPFL的Tobias Kippenberg教授说,他是这项研究的负责人之一。基彭伯格教授的研究开创了频率梳的发展。“频率梳提供了各种不同的光波,这些光波在同一个光子芯片中相互独立地处理。”

“在机器学习领域,用于加速任务的光处理器使复杂的数学任务能够以很高的速度和处理量处理,”研究负责人之一、明斯特大学(Munster University)的资深合著者沃尔夫拉姆·珀尼斯(Wolfram Pernice)说。“这比依赖电子数据传输的传统芯片快得多,如图形卡或专用硬件如TPU(张量处理单元)。”

在设计和制造完光子芯片后,研究人员在一个识别手写数字的神经网络上测试了它们。这些网络受到生物学的启发yabo124,是机器学习领域的一个概念,主要用于图像或音频数据的处理。“输入数据和一个或多个滤波器之间的卷积运算——例如,它可以识别图像中的边缘,这非常适合我们的矩阵架构,”约翰内斯·费尔德曼说,他现在在美国国家地理信息研究所工作牛津大学部门的材料。Nathan Youngblood(牛津大学)补充道:“利用波长多路复用可以实现更高的数据速率和计算密度,也就是处理器每区域的操作,这是以前无法实现的。”

“这项工作是欧洲合作研究的一个真正的展示,”埃克塞特大学的戴维·赖特说,他领导了资助这项工作的欧盟FunComp项目。“虽然每个研究小组都以自己的方式领先世界,但正是将所有这些部分整合在一起,才使这项工作真正成为可能。”

这项研究发表在自然本周,有深远的应用:更高的数据同步(节能)处理人工智能,更大的神经网络更准确的预测和更精确的数据分析,大量的临床数据进行诊断,提高快速评估传感器数据的自动驾驶汽车,和扩大云计算基础设施与更多的存储空间,计算能力和应用程序的软件。

参考:“并行卷积处理集成光子张量的使用核心”由j . Feldmann n .血性小子m·卡尔波夫h·格林,x,, m -史塔伯斯勒盖洛,x赋,a . Lukashchuk a . s . Raja j . Liu c·d·赖特,a·塞巴斯蒂安·t·j . Kippenberg w·h·p·Pernice和h Bhaskaran) 2021年1月6日,自然
DOI: 10.1038 / s41586 - 020 - 03070 - 1

第一个发表评论关于“并行卷积光处理器提升AI”

留下你的评论

邮箱地址可选。如果提供,您的电子邮件将不会被发布或共享。