基于设计自动化的快速、轻量化和高效的深度学习模型:一项调查
过去十年来,深度学习模型在各种视觉感知任务中取得了显著进展,但其高计算资源需求限制了其在实际应用中的可行性。本综述通过四个关键领域的研究,即轻量级骨干模型的发展、面向特定计算机视觉任务的专用网络架构或算法、深度学习模型压缩技术以及在硬件平台上部署高效深度网络的策略,对计算效率高的深度学习进行了广泛分析,并讨论了该领域面临的关键挑战和未来研究方向。
Aug, 2023
在过去的十年中,深度学习在自然语言处理、计算机视觉和生物医学信号处理等各个人工智能领域中占据主导地位。虽然模型的准确性有了显著提高,但将这些模型部署在移动手机和微控制器等轻量设备上受到资源限制的制约。本调查报告针对这些设备提供全面的设计指导,详细介绍了轻量模型的细致设计、模型压缩方法和硬件加速策略。本工作的主要目标是探索在不影响模型准确性的情况下克服硬件限制的方法和概念。此外,我们还探讨了未来轻量深度学习的两个值得关注的方向:TinyML 和大型语言模型的部署技术。尽管这些方向无疑具有潜力,但它们也带来了重大挑战,鼓励研究未开拓的领域。
Apr, 2024
介绍了深度学习效率问题和五个核心领域,包括建模技术、基础设施和硬件,并提出实验指南和代码,为实践者优化模型培训和部署提供支持。这是第一个详尽的调查,涵盖了从建模技术到硬件支持的模型效率领域,帮助实践者实现改进并装备他们以进行进一步的研究和实验。
Jun, 2021
本文概述了高效深度学习的方法、系统和应用,包括流行的模型压缩方法、自动化模型设计和用户自定义的基于设备的训练,以及各种针对特定任务和空间 - 时间冗余的加速技术和系统设计。
Apr, 2022
本论文探讨了 DNN 在资源受限的边缘设备上部署的优化问题,并研究了四种边缘智能场景下的深度学习方法,通过减少 DNN 冗余度来达到资源消耗与模型准确度之间的平衡。
Oct, 2022
本文综述了现有的方法,囊括了计算机领域中的神经体系结构搜索、自动化方法和深度学习等方面,内容包括常用的体系结构搜索空间和基于强化学习和进化算法的体系结构优化算法、模拟模型和单次模型。同时,文章对新的研究方向进行了探讨。
May, 2019
深度神经网络(DNNs)在许多人工智能(AI)任务中被广泛使用,为了解决其部署带来的巨大的内存、能量和计算成本挑战,研究人员开发了各种模型压缩技术,最近还有越来越多的研究关注定制化 DNN 硬件加速器以更好地利用模型压缩技术,此外,保护安全和隐私对于部署 DNNs 至关重要,我们的研究综述首先涵盖主流的模型压缩技术,如模型量化、模型修剪、知识蒸馏和非线性运算优化,然后介绍了设计可以适应高效模型压缩方法的硬件加速器的最新进展,此外,我们还讨论了如何将同态加密集成到安全 DNN 部署中,最后,我们讨论了硬件评估、泛化和各种压缩方法的集成等几个问题,总体来说,我们旨在从算法、硬件加速器和安全性角度提供高效 DNN 的整体概况。
May, 2024