本文提出Ristretto,一种模型逼近框架,可以使用固定点算术和表示来压缩卷积和全连接层的权重和输出,并且可以通过微调将结果定制到具体的硬件设备,成功地将CaffeNet和SqueezeNet压缩到8位。
Apr, 2016
本篇论文全面评估现有的面向硬件的深度学习模型建模和优化方法,提出几个值得探讨的研究方向,旨在让深度学习的应用对硬件系统和平台产生显著影响。
Sep, 2018
该论文提供了有关高性能网络推断的近似方法的全面评估,并深入讨论了这些方法在自定义硬件实现中的有效性,旨在启发该领域的新发展。
Jan, 2019
本文提出了一种新的反向传播实现,通过使用近似来显著减少内存使用,使用相对较低的精度近似,而不影响训练准确性,并展示了其在 CIFAR-10、CIFAR-100 和 ImageNet 数据集上的优异表现。
使用硬件支持的近似计算来提高机器学习分类器的鲁棒性,在黑箱、灰箱和白箱攻击场景中,实现了成功的防御,并减少了资源利用和能量消耗。
Jun, 2020
本研究提出了一种针对近似乘法器的优化方法,通过操作数分布最小化平均误差。我们的方法在 DNN 中获得比已有的最佳近似乘法器高达 50.24% 的精度、15.76% 更小的面积、25.05% 较少的电功率消耗和 3.50% 较短的延迟。与精确乘法器相比,我们的方法可以减少 44.94% 的面积、47.63% 的电功率消耗和 16.78% 的延迟,同时精度损失可以忽略不计。在测试的 DNN 加速模块中,我们的乘法器比原始模块面积小 18.70%、电功率消耗少 9.99%。
Jan, 2022
本文通过开源框架ApproxTrain,使用模拟的近似乘法器评估了使用近似乘法器的深度神经网络(DNN)培训的收敛性和准确性,论证了这种方法的资源效率和GPU加速优势。
Sep, 2022
利用近似计算并将硬件近似集成到多层感知器(MLP)的训练过程中,为Printed Electronics(PE)设计了一种基于遗传算法的硬件感知训练方法,实现了超过5倍的面积和功耗降低,同时优于最先进的近似和随机打印MLPs。
Feb, 2024
将近似计算的原则融入到硬件感知的深度神经网络(DNN)的设计中,利用名为DARTS的可微分神经架构搜索方法,我们提供了一种名为ApproxDARTS的神经架构搜索方法,能够利用近似乘法器降低生成的神经网络的能耗。
Apr, 2024
本研究解决了Tiny Machine Learning(TinyML)在微控制器中推理效率和内存性能的不足问题。我们提出了一种结合近似计算和软件内核设计的新方法,通过对卷积层操作数进行解包和意义计算,采用计算跳过策略进行推理加速。实验结果表明,这种方法在保持分类准确性的同时,平均减少了21%的延迟,对于低准确率需求,则能实现更显著的优化。
Sep, 2024