2.5D 芯片平台中的硅光子学机器学习加速器
现代机器学习应用越来越复杂,单芯片加速器架构无法满足其能效和吞吐量要求。本文介绍了如何利用光通信和计算在 2.5D 平台上实现能效高、吞吐量大的 2.5D 机器学习加速器架构。
Mar, 2024
在人工智能快速发展的领域中,大型语言模型(LLMs)和图处理已经成为自然语言处理(NLP)、计算机视觉和图结构数据应用的变革性技术。本文描述了基于硅光子学的新型硬件加速器,用于加速在 LLMs 和图神经网络中使用的 Transformer 神经网络进行图数据处理。我们的分析表明,这两种硬件加速器在吞吐量上至少实现了 10.2 倍的提升,并且在能源效率上比多个用于 LLMs 和图处理的最新电子硬件加速器提高了 3.8 倍。
Jan, 2024
介绍了一种用于矩阵向量乘法和求和的集成光子学 TPU,通过利用波长分割复用、纳秒级延迟和基于相变材料的光学多态存储器,结合这些材料、功能和系统的物理协同作用,展示了这种 8 位光子 TPU 的性能比电子 TPU 高 2-3 个数量级,而占用的芯片面积类似,表明光子专用处理器在增强电子系统方面具有潜力,并且在即将到来的 5G 网络及其后面的网络边缘设备中表现特别出色。
Feb, 2020
本文介绍了一种基于非相干光学计算平台的 AI 工作负载加速方法,通过交叉层设计,优化了非相干光学计算平台的光学器件工程、调谐电路增强和架构创新,并探讨了硬件 / 软件协同设计等技术来智能化映射和适应 AI 软件,以提高其在非相干光学计算平台上的性能。
Mar, 2023
本文构建了光子芯片的碳足迹模型,通过对 ADEPT 进行案例研究,调查了光子学加速器的可持续性,结果显示光子学可以通过其高能效性以及每单位面积至少比 28 纳米 CMOS 的制造碳成本低 4 倍,从而减少操作碳足迹和制造碳足迹。
Jan, 2024
本文研究了公开宣布具有性能和功耗数字的多核处理器和加速器的现状,发现其中一些趋势,包括功耗、数字精度以及推理与训练等方面的趋势,并选择并测试了两个低尺寸、重量和功率的商用加速器的实际表现,将其与报道的性能和功耗数值进行比较,并将其与嵌入式应用程序中使用的 Intel CPU 进行评估。
Aug, 2019
采用硬件意识神经架构搜索,设计了一类适用于 Edge TPU 的计算机视觉模型,有效提升了实时图像分类性能并在像素 4 的边缘 TPU 上改善了精度 - 延迟权衡。
Mar, 2020
该论文回顾了集成光子神经形态系统的最新进展,分析当前和未来的挑战,概述了克服这些挑战所需的科学和技术进步,包括光子计算、光子集成电路、人工神经网络、机器学习和神经形态光电子学。
Oct, 2020
本篇论文主张采用通信启发式方法来设计机器学习系统,分别采用确定性和随机性版本。采用此方法可以充分利用机器学习算法和应用,以解决其在能量受限制平台上部署时面临的挑战。
Oct, 2016