内存计算中的近似模数转换器
本文提出了一种新型IMC加速器FAT,其中使用Sparse Addition Control Unit来利用TWNs的稀疏性,使用快速加法方案来避免传输和存储时间开销,并使用Combined-Stationary数据映射来提高内存列中的并行性,模拟结果表明,FAT相比于现有的IMC加速器ParaPIM可以实现2.00X的加速,1.22X的功率效率和1.22X的面积效率,对于80%平均稀疏度的网络,FAT可以实现10.02X的加速和12.19X的能量效率。
Jan, 2022
本文提出了一种在SRAM中进行矩阵乘法运算的新型数字乘法器,配合DAISM加速器对卷积神经网络进行加速,在减小了能量消耗并提高了性能的同时,避免了位串行计算的性能瓶颈。
May, 2023
本文提出了一种名为AnalogNAS的自动化DNN设计框架,目标是部署在模拟内存计算推理加速器上,通过大量的硬件模拟,展示AnalogNAS在各种TinyML任务上的性能,以及在64核IMC芯片上实现的模型较SOTA模型具有更高的准确性。
May, 2023
通过使用频域学习方法和内存沉浸式协同数字化方法,该研究提出了一种改善深度学习推断任务中的面积效率的新方法,在处理来自传感器和物联网设备的高维多光谱模拟数据方面具有潜在的应用前景。
Sep, 2023
Transformer模型使用我们提出的Compute-ACAM结构以及使用模拟输入和数字输出的能力,通过在模拟域内对Transformer模型中的所有操作进行高效执行来提高性能,并大大降低能耗。
Nov, 2023
通过引入In-charge computing和In-time interconnection的创新AiMC架构AiDAC,提高了多位计算效率,减少了数据转换时间,支持大规模的全模拟多位向量矩阵乘法运算,并保持高精度计算,同时具备高并行性、低延迟和高能效优势。
Dec, 2023
基于固定点算术的近存储数字处理单元(NMPU)在采用模拟内存计算芯片的模拟系统中展现了优越的性能,包括139倍的加速、7.8倍的较小面积和竞争力的功耗,并实现了与浮点16位算术基准相比仅仅0.12%/0.4%的推断精度损失。
Feb, 2024
通过识别三个关键属性,我们提出了一种适用于ADC特定效率低下问题的剪枝方法,实现ADC能量的降低并减少精度损失,从而提高深度学习效率。
Mar, 2024
基于横向栅构建的内存计算是一种应用于深度神经网络硬件加速的有前景的平台,然而能耗和延迟主要由外围模拟数字转换器的巨大开销所决定,为了解决该问题,本文提出了实现数组级部分和的随机处理,借助旋转轨道磁隧道结的概率性切换,该处理方式消除了昂贵的模拟数字转换器,从而在能耗和面积效率上取得了显著改进。
Jul, 2024