从设备到算法的计算层面的能耗估计和分析揭示了能源使用的影响因素。这项研究还对包括人工智能 / 机器学习在自然语言处理、科学模拟和加密货币挖掘等三个大规模计算应用领域的能源需求进行了估算。此外,对人工智能 / 机器学习加速器的分析显示,使用较旧的半导体技术节点的体系结构比使用较新技术的不同体系结构具有相当的能效。这些能耗估算强调了计算中能源效率的重要性,包括将能源作为设计参数,以满足数字世界中计算密集型应用的不断增长的需求。
Oct, 2023
本文通过使用深度卷积神经网络的实证研究,研究了深度学习模型的体系结构与其环境影响之间的关系,重点关注能源消耗和二氧化碳排放等方面的交易,并探讨了精度和能源效率之间的权衡,以及使用软件和硬件工具测量能量消耗的差异。
Feb, 2023
本篇论文全面评估现有的面向硬件的深度学习模型建模和优化方法,提出几个值得探讨的研究方向,旨在让深度学习的应用对硬件系统和平台产生显著影响。
Sep, 2018
为了解决机器学习模型能耗大导致大碳足迹的问题,我们构建了能量估计流水线,通过收集高质量的能量数据和建立的预测模型,能够预测深度学习模型的能耗。
Apr, 2023
我们研究了深度学习模型在准确性和电力消耗之间的权衡,并提出一种惩罚高电力消耗的度量标准。通过评估单位电力消耗下的准确性,我们展示了更小、更能源高效的模型如何在减缓环境问题的同时显著加快研究进展。这项研究强调了深度学习优化模型效率的重要性,为更公平的竞争环境做出了贡献。
本文研究了如何在短期内准确预测能源消耗,对比了使用 LSTM、CNN、混合 CNN-LSTM 和 TCN 等多种深度学习算法的表现,通过实验结果表明 TCN 是最可靠的预测短期能源消耗的方法。
Jul, 2022
本研究通过测量、预测和评分等三个方面的研究,揭示了边缘设备中深度学习的能量消耗特征,并设计了基于内核级能量数据集的边缘设备上的内核级能量预测器,最后引入了两个评分指标,旨在将复杂的边缘设备功耗和能量消耗数据转化为易于理解的形式,以推动边缘计算中的可持续发展思维。
本文提出了一种新的度量标准来衡量高效计算机视觉模型在不同应用场景下的全周期能耗,以提供在选择高效深度学习算法时降低碳排放的参考。
Aug, 2021
通过最大化神经进化框架下人工神经网络模型的准确性和最小化功耗,本研究提出了一种新的变异策略,引入了模块层的随机重新引入,通过训练过程中同时训练两个模型以推动其中一个模型的功耗更低且准确性相似,结果表明功耗降低了 29.2%,但预测性能基本不受影响。
Jan, 2024
调查了大规模神经网络训练的实际能耗,并介绍了 BUTTER-E 数据集,分析了数据集大小、网络结构和能量消耗之间的复杂关系,提出了一个能量模型,挑战了参数或 FLOP 减少是实现更高能效的最佳方法的假设,并建议在网络、算法和硬件设计上采用综合方法来实现能量效率。
Mar, 2024