陈根:计算机领域新进展—光电智能处理器

文/陈根

在科幻小说《三体》里,有这么一段描述:“每秒500万亿次浮点运算的计算机,出现在“面壁计划”里。这是第二位面壁者雷迪亚兹看到的人类最强的计算力,用于顶尖的核爆模拟。”

这里的浮点运算可以理解成对小数进行计算,是非常精细的运算模式,现实生活中的科学计算往往难以实现。但现在,基于光计算高速、低功耗、高并行的优势,来自清华大学的研究团队提出并构建了光电智能衍射计算处理器(Diffractive Processing Unit, DPU)。

该处理器的构架采用了光学衍射的物理现象,其能够产生大规模的光学互联,从而助力构建高复杂度的光学神经网络。此外,DPU充分利用了光的波粒二象性,通过控制光波传播的波前分布来实现神经网络权重的调整,从而利用光电效应来实现人工神经元的功能。

DPU 的运行过程光计算部分则几乎承担所有的计算操作,其采用高通量可编程的光电器件并结合电子计算的灵活特性,以实现高速数据调控以及大规模网络结构和参数的编程。

值得一提的是,将其所构建的系统应用于分类和识别任务,并在深度学习的标准数据集上进行性能验证,包括手写数字图像数据集、时尚物品图像数据集,以及人类动作视频数据集,结果光电智能计算模型性能超越了 LeNet-4 电子神经网络模型。

除此以外,该系统还能实现高速、高精度的人类动作识别。在运行同样的神经网络条件下,光电计算系统与特斯拉 V100 图形处理器(GPU)相比,计算速度提高了8倍,系统能效提升超过一个数量级,核心模块计算能效则提升了四个数量级。

总的来说,该处理器有效地重构了包含百万神经元的多类新型光电神经网络,通过自适应的在线训练算法实现了高性能的视觉分类任务,有望让《三体》小说中的科幻场景成为现实。

并且,光电智能计算技术在使用超材料构建片上相控阵列方面,以及提升处理器的计算性能方面,都有很大发展空间。

当前,随着深度学习算法的持续发展,以及人工神经网络规模的不断增大,传统的电子计算方式越来越难以满足人工智能对处理器计算性能的需求。而未来,光电智能计算技术将有助于推动类脑光电子芯片的研发,从而为大规模数据的实时智能处理,以及从十亿像素到百亿像素光场的成像添砖加瓦。

免责声明:该自媒体文章由实名作者自行发布(文字、图片、视频等版权内容由作者自行担责),且仅为作者个人观点,不代表 秒送号Miaosong.cn立场,未经作者书面授权,禁止转载。[投诉 · 举报作者与内容]

「作者 · 档案」
这个人很懒,什么都没有留下~

  
(0)

相关阅读

发表回复

登录后才能评论
发布