高维空间中学习稀疏特征的最优修剪
该论文提出了一种通过初始训练过程中修剪权重来减少模型参数的技术,以便在减小了模型大小的同时,保留了准确度并显著提高了推理时间,在基准测试中使用该技术可以将模型大小降低90%,速度提高2倍至7倍
Apr, 2017
本文探讨在资源受限环境下,通过模型剪枝来压缩神经网络模型的方法,提出了一种简单、直接、易于应用的逐渐剪枝技术,并在多个模型/数据集上进行了比较,发现大型稀疏模型在保持较高精度的同时可减少10倍的参数数量。
Oct, 2017
本文评估了三种在深度神经网络中引入稀疏性的技术,并对两个大规模的学习任务进行了严格评估,结果表明,简单的幅度剪枝方法可以获得相当或更好的性能,而不能从头开始训练稀疏结构,并强调了建立大规模基准测试的必要性。
Feb, 2019
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021
本文针对神经网络剪枝技术在高稀疏度领域的应用,提出了新的有效稀疏度概念,重定义了性能评价指标,同时开发了一个成本较低的扩展工具,通过评估各种剪枝算法的绝对和相对性能表现,证明新的评价框架下与基于初始化的剪枝算法相比,随机剪枝仍然是一种可行的方法。
Jul, 2021
本研究探讨了如何在现代神经网络中使用稀疏训练,提出了初始化时的随机剪枝能够有效地提高神经网络的稀疏训练性能,结果表明此方法可以匹配对应的密集网络,达到了预期效果,并且进行适当的层级稀疏比率的选择,可以进一步提高性能。
Feb, 2022
本文提出了 PQ Index(PQI) 作为衡量深度神经网络可压缩性的量化指标,并基于此开发了一种基于稀疏性信息的自适应裁剪算法 (SAP),该算法在压缩效率和稳健性方面优于遗传算法等迭代型裁剪算法。
Feb, 2023
使用标准的计算机视觉和自然语言处理稀疏基准测试,探讨高稀疏性对模型训练的影响,提供了一种解决有关稀疏训练困难的新方法,并在高稀疏性环境下实现了在视觉模型和语言模型上最先进的结果。
Aug, 2023
彩票模型的存在考虑了深度学习中是否需要大型模型以及是否可以快速识别和训练稀疏网络,而无需训练包含它们的稠密模型。通过对彩票模型的理论解释,揭示了稀疏网络需要依赖于数据的遮罩来稳定插值噪声数据。研究证实了训练过程中获取的信息可以影响模型容量。
Feb, 2024
我们通过对一个我们创建的名为Cubist Spiral的合成数据集进行了一系列485,838次的实验,研究了现有的剪枝算法在压缩大规模模型时回复最稀疏模型的有效性,并通过一种新颖的组合搜索算法发现在性能上存在明显差距。我们认为这种差距是因为现有的剪枝算法在过度参数化下的不良行为、在网络中引入不连通路径的倾向以及在给定最佳宽度和初始化的情况下倾向于陷入次优解的性质所致。鉴于我们研究中所使用的网络架构和数据集的简单性,这种差距令人担忧。我们希望我们的研究能够鼓励进一步对追求真正网络稀疏性的新型剪枝技术进行研究。
Jul, 2024