本文研究了神经网络训练所需内存的实际需求量,并系统评估了四种降低训练内存需求的标准技术。研究结果表明,通过选择适当的技术组合,可以在保持较少损失精度的前提下,显著减少训练神经网络所需的内存。
Apr, 2019
该研究论文介绍了一种名为 HadaNets 的新型神经网络模型,可以在不占用太多内存和训练时间的情况下有效地训练和推理深度神经网络,同时具有优秀的模型压缩性能。
May, 2019
本研究旨在提高二进制神经网络的训练效率,通过拓扑变化和策略训练提出两种解决方案,使网络能够达到接近最先进性能和高效训练。训练时间和内存需求是实现高效训练的两个因素。
Oct, 2023
部署神经网络在资源受限的安全关键系统中面临不确定性和硬件非理想性所带来的挑战,该研究论文总结了一项 (四年级) 博士论文工作,该工作探索了深度学习中可扩展和高效的方法,包括计算内存 (Computation-in-Memory) 使用新兴的阻性非挥发性存储器来估计和降低不确定性。我们采用问题感知训练算法、新颖的神经网络拓扑结构和硬件协同设计解决方案,包括基于自旋电子器件的基于退化的二值贝叶斯神经网络和变分推理技术。这些创新显著提高了异常数据检测、推理准确性和能量效率,从而增加了神经网络实现的可靠性和鲁棒性。
Jan, 2024
本研究提出了一种通用和统一的框架,通过多级现场生成机制和混合精度基准,实现了高分辨率参数的即时恢复,从而以最小的硬件开销直接将昂贵的内存交易转换为超快的芯片内计算,提高了内存效率 10-20 倍。
Aug, 2021
本文提出了基于三值神经网络和师生模型的新型深度学习方法,并在 FPGA 和 ASIC 硬件上实现;相比现有技术,该方案在提高准确率的前提下,节约了高达 3.1 倍的能源。
Sep, 2016
介绍了一种在内存计算硬件上训练 ResNet 类型卷积神经网络的方法,并提出了一种基于批标准化参数的补偿技术,可以在映射到 PCM 后实现分类精度高达 93.7% 的 CIFAR-10 数据集和 71.6% 的 ImageNet 基准测试的 top-1 精度。
Jun, 2019
本文对深度神经网络在计算机视觉领域中的重要应用指标进行全面分析,发现能耗与批次大小和架构无关,准确度和推断时间在双曲线关系中,能源约束是最大可实现准确度和模型复杂度的上限,操作次数是推断时间的可靠估计。
May, 2016
本论文致力于提高神经网络的效率,提出了连续推理网络(CIN),它通过自下而上的计算重新组织和适度的架构修改来改善其在线处理效率,并采用 CIN 重构了几种广泛使用的网络架构,包括 3D CNN,ST-GCN 和 Transformer Encoders。另外,通过使用熔接适配器网络和结构修剪,本论文还达到了在使用较少的学习权重的情况下实现卓越的预测准确性的目的。
Jun, 2023
提出了一种新方法训练任意精度深度神经网络(DNNs),可以在推断时灵活地设置数字精度,从而支持动态速度和准确度的折衷,并且该方法不会降低性能,该方法适用于多个视觉任务和模型结构
Nov, 2019