能源高效的哈达玛神经网络
该研究论文提出基于 Hadamard 方法的物体识别,以减少卷积层的能源消耗,在 MNIST 数据集上与卷积方法表现相似,而在 CIFAR10 数据集上由于数据复杂性和多通道性能下降,该方法可应用于其他计算机视觉任务,当卷积层的内核大小小于输入图像大小时。
Sep, 2022
本文提出了一种名为 BWNH 的新方法,旨在通过哈希训练二进制权重网络,以实现高效的网络推理。实验证明,该方法在 CIFAR10、CIFAR100 和 ImageNet 数据集上的性能均优于当前状态 - of-the-art 方法。
Feb, 2018
本研究采用超参数优化的设计范式,将 CNN 的架构设置视为全局优化的超参数,以解决现有方法中网络处理数据而不是网络架构的局限性,实现了比以往使用 CNN 作为黑匣子更高效省电的图像分类。
Aug, 2018
该研究论文介绍了一种名为 HadaNets 的新型神经网络模型,可以在不占用太多内存和训练时间的情况下有效地训练和推理深度神经网络,同时具有优秀的模型压缩性能。
May, 2019
本文提出一种新的 DNN 模型 LightNN,它将乘法替换成一次位移或约束数量的位移和加法,为硬件设计者提供了更多在精度和能耗之间取得平衡的选项,并且验证实验表明,LightNN 在大型 DNN 配置下具有优于传统 DNN 和 BNN 的精度和能效优势。
Dec, 2017
本论文致力于提高神经网络的效率,提出了连续推理网络(CIN),它通过自下而上的计算重新组织和适度的架构修改来改善其在线处理效率,并采用 CIN 重构了几种广泛使用的网络架构,包括 3D CNN,ST-GCN 和 Transformer Encoders。另外,通过使用熔接适配器网络和结构修剪,本论文还达到了在使用较少的学习权重的情况下实现卓越的预测准确性的目的。
Jun, 2023
本文提出了一种名为 BoolNet 的二值神经网络(BNN)架构,该架构不使用常见的 32 位组件,能够在不影响准确性的情况下减少能源消耗,并且与现有的 BNN 架构 Bi-RealNet 相比,能够获得高达 1.2% 的额外准确性和 4.6 倍的能量降低。
Jun, 2021
本研究旨在提出一种基于二进制系统的深度神经网络,该网络可以大幅减少计算资源和存储空间的使用,从而可在各种设备上使用,并通过实验验证了该网络的可行性。
Feb, 2016
提出知识转移方法来辅助训练二值权重神经网络,以实现自动驾驶的实时目标检测,通过该方法可以在保持高检测准确率的同时,将 DarkNet-YOLO 和 MobileNet-YOLO 的模型大小分别从 257 MB 和 193 MB 压缩为 8.8 MB 和 7.9 MB。
Apr, 2018
本研究提出了一种新的基于能量消耗估计的卷积神经网络 (CNNs) 剪枝算法,该算法比以前的算法更加激进,并具有更高的准确性,AlexNet 和 GoogLeNet 的能量消耗分别降低了 3.7x 和 1.6x,用于降低卷积神经网络在移动设备上的能量消耗的新工具和模型都可在链接网站上找到。
Nov, 2016