为树莓派优化深度学习模型
通过剪枝和迁移学习,我们提出了一种新颖的前馈神经网络构建方法,能在不损失准确率的情况下压缩参数数量超过 70%,并且通过精心选择剪枝参数,大多数精炼模型的性能优于原始模型,从而不仅有助于更高效的模型设计,而且更有效的使用。
Dec, 2023
本文提出了一种在资源受限设备上部署和训练最先进模型的新解决方案,其中包括通过一种基于滤波修剪的模型压缩方法创造轻量级可训练模型,以及一种新型知识转移方法,允许在设备上的模型实时增量更新,并以无监督的方式通过云端模型学习新的类别。实验结果表明,该新方法可以在保持良好准确率的同时移除高达 99.36%的模型参数,并且允许在设备上的压缩模型在实时内收敛于增量学习任务并识别未见过的数据类别。
Jan, 2022
本研究提出了一种新的基于能量消耗估计的卷积神经网络 (CNNs) 剪枝算法,该算法比以前的算法更加激进,并具有更高的准确性,AlexNet 和 GoogLeNet 的能量消耗分别降低了 3.7x 和 1.6x,用于降低卷积神经网络在移动设备上的能量消耗的新工具和模型都可在链接网站上找到。
Nov, 2016
通过适用于边缘云资源的自适应压缩感知裂化学习方法,我们可以改善和训练深度学习模型,使其在网络上更加高效,并通过变换学习方法扩展训练,以换取更高效的推理能力,而不损失准确性。
Nov, 2023
本文提出应用硬件友好的结构化模型压缩和编译器优化技术以加速在移动设备上的深度神经网络执行,实验结果表明这些优化技术可以实现多个深度神经网络应用,如风格迁移、DNN 着色和超分辨率的实时移动执行。
Apr, 2020
本文提出了一种在 Intel CPU 上优化深度学习模型训练的方法和工具集 ProfileDNN 以及一个任务优化方法,旨在解决在选择适当硬件时成本和效率之间的权衡问题,并通过几个案例研究探讨了如何使用 ProfileDNN 和 Intel PyTorch 扩展来优化模型训练。
Jun, 2022
在过去的十年中,深度学习在自然语言处理、计算机视觉和生物医学信号处理等各个人工智能领域中占据主导地位。虽然模型的准确性有了显著提高,但将这些模型部署在移动手机和微控制器等轻量设备上受到资源限制的制约。本调查报告针对这些设备提供全面的设计指导,详细介绍了轻量模型的细致设计、模型压缩方法和硬件加速策略。本工作的主要目标是探索在不影响模型准确性的情况下克服硬件限制的方法和概念。此外,我们还探讨了未来轻量深度学习的两个值得关注的方向:TinyML 和大型语言模型的部署技术。尽管这些方向无疑具有潜力,但它们也带来了重大挑战,鼓励研究未开拓的领域。
Apr, 2024
本文概述了高效深度学习的方法、系统和应用,包括流行的模型压缩方法、自动化模型设计和用户自定义的基于设备的训练,以及各种针对特定任务和空间 - 时间冗余的加速技术和系统设计。
Apr, 2022