- 概率建模:在脉冲神经网络中证明彩票票证假设
本文提出了一种新的概率建模方法来适应间歇性发放信号神经元的复杂时间空间动力学,通过定理及实验证明了 LTH 在间歇性发放信号神经网络上成立,并进一步设计了一种基于我们理论的新的剪枝准则,取得了比基线更好的剪枝效果。
- ICLR重新思考 Graph Lottery Tickets:图稀疏度很重要
本研究提出了两种方法来提高图神经网络 (GNN) 在图稀疏度高的情况下的性能:(1) 使用辅助 loss 以涵盖整个邻接矩阵的所有元素来指导边缘裁剪,(2) 将裁剪过程形式化为最小化 - 最大化优化问题来提高稳健性。此外,本研究还得出了可传 - Concept-Monitor: 通过单个神经元理解深度神经网络训练
通过一个称为 Concept-Monitor 的框架以及一个新的统一的嵌入空间和概念多样性度量方法,我们提出了一个通用的框架,可以自动帮助我们了解黑箱 DNN 训练进程,并且对 DNN 培训过程进行可解释的可视化,还提出了一个新的训练正则化 - 鲁棒性强的模型参数可获更好迁移能力:在迁移学习中绘制更多可迁移子网络
该研究提出了一种新的迁移学习管道,可以通过具有适当诱导的对抗鲁棒性的子网络来实现更好的迁移能力,从而在各种下游任务和稀疏性模式中实现增强的准确性和稀疏性 - 精度权衡,进一步丰富了彩票票假设。
- ACL预训练语言模型的强大抽奖票
本文提出了一种基于学习二进制权重掩码的新方法,用于识别原始 PLM 中隐藏的强健 Ticket,并设计了一个对抗性损失目标来引导寻找强健的 Ticket,并确保票据在准确性和鲁棒性方面表现良好。
- IJCAI视觉 Transformer 的数据级彩票假设
本文提出了一种数据级彩票假设(Data-LTH-ViT),旨在寻找将 Vision Transformers 训练到与使用所有图像补丁训练模型相似准确度的可行子集。结果表明,使用获胜彩票的模型与随机选择子集的模型的性能存在明显差异,并且该理 - 具有 ε- 扰动的强彩票假设
本研究通过在预训练步骤中对权重的波动进行波动,拓展了强彩票符号假设的理论保证,从而回答了两个开放性问题:(1)通过在强编码符号假设中允许随机初始权重的 ε- 比例扰动,是否可以减少候选网络的超参数化要求?(2)SGD 的权重变化是否与这些扰 - LOFT: 通过逐层过滤训练查找彩票券
本文研究了 Lottery Ticket Hypothesis,并提出了一种称为 LOttery ticket through Filter-wise Training 的卷积神经网络预训练算法来识别优秀的 filters 并减少预训练的内 - 一种用于跨领域意图分类的开放世界彩票模型
本研究提出了一种用于 Out-of-Domain 意图分类的新方法,即基于校准的子网络,该方法通过裁剪超参数化模型中的不良校准部分,发现校准的子网络以更好地区分 In 和 Out-of-domain,因此在三个真实数据集上与其他竞争性基线相 - 卷积神经网络自注意力的彩票假设
通过实验证明,将自注意力模块 (SAMs) 连接到所有块并不总是会带来最大的性能提升,而将其连接到部分块效果更好。此外,提出了自注意力网络抽奖票假说:完整的自注意力网络包含一部分稀疏自注意力连接的子网络能够加快推理速度,减少额外参数增量并保 - ECCV从超网络中联合进行架构搜索和参数剪枝,绘制与任务无关的彩票票券
本文提出了一种 SuperTickets 的方法,通过一种两合一的训练方法进行神经架构搜索和参数修剪,从而直接识别出有效的神经网络。该方法不仅能够改善精度和效率权衡的问题,并且可用于多任务处理。
- ECCV探索突触传递网络中的抽奖票假设
该研究使用彩票票据原理,提出了一种适用于深度脉冲神经网络(SNN)的神经剪枝技术,即运用早期时间(ET)票据来减少彩票票据原理的搜索时间,该方法在不降低性能的情况下使得 SNN 的鲁棒性得到了极大提高。
- ICML稀疏双峰下降:网络修剪加剧过拟合
我们的研究发现,在通过网络修剪增加模型的稀疏性时,测试性能会出现一个稀疏双下降现象,即测试性能先下降,然后上升并达到顶峰,最后再次下降。我们提出了一个新的学习距离解释,它可以很好地反映稀疏双下降曲线,并比最小值平坦性更好地反映泛化能力,此外 - ICML并非所有的抽奖都平等
通过实验证明,在可接受的神经网络大小下,要发现优秀的稀疏子网络,比较小的神经网络更容易受益于 Lottery Ticket Hypothesis 并且得到更好的训练效果。
- 多语言模型中的语言中立子网络发现
本文使用抽象的彩票票假设,发现不同语言的子网络是拓扑相似的(即语言中性),这使它们成为具有有限性能下降的跨语言转移的有效初始化。
- 大多数激活函数可在没有过度深度的情况下赢得彩票
深度神经网络训练中的强引理假设提出了剪枝的潜力,在 ReLU 激活函数网络中,通过从随机初始化的神经网络的子网络近似目标网络,可以用宽度呈对数比例增加、深度双倍的神经网络表示目标函数,文中证明可以实现深度加 1 的神经网络,预期可以在常用深 - 卷积和残差网络可证明包含中奖彩票
该论文证明现代卷积和残差层构成的卷积神经网络同样可能存在具有高概率的‘彩票票证’,这与以往理论只关注具有 ReLU 激活函数的全连接前馈神经网络有所不同。
- ACL通过任务无关的掩码训练在 BERT 转移上学习赢得彩票的方法
本文通过对 BERT 子网络的研究发现直接优化子网络结构能更好地保留预训练性能,探究了幸运彩票假设、幅度剪枝和二值掩码训练等方法在 BERT 子网络中的应用,发现二值掩码训练方法在寻找改进 BERT 子网络性能方面更加有效。
- 双重彩票神经元假设
本论文提出 Dual Lottery Ticket Hypothesis 和 Random Sparse Network Transformation 实现稀疏神经网络训练,并通过实验证明了其有效性。
- ICML粗化粒度:朝向结构稀疏的彩票神经元
本文提出一种新方法,通过迭代的裁剪与一系列 “后处理技术”,找到带有结构化稀疏性的获奖子网络,从而在不影响模型精度的情况下,显著提高模型的推理速度。