本文介绍了一种针对稀疏神经网络的并行训练算法、非可训练参数激活函数、隐藏神经元重要性指标等三个新型贡献,该方法能够最大程度地利用稀疏神经网络的潜力。实验结果表明,这种方法具有最前沿的性能,同时为实现环保型人工智能奠定了基础。
Feb, 2021
使用标准的计算机视觉和自然语言处理稀疏基准测试,探讨高稀疏性对模型训练的影响,提供了一种解决有关稀疏训练困难的新方法,并在高稀疏性环境下实现了在视觉模型和语言模型上最先进的结果。
Aug, 2023
在深度强化学习领域,这项工作系统地研究了应用多种现有的稀疏训练技术在各种强化学习代理和环境中的可行性,结果发现,稀疏网络比密集网络在相同数量参数下表现更好,我们提供了有关如何改善稀疏训练方法有效性以及推进其在深度强化学习中应用的有益思路。
Jun, 2022
本文中,我们提出了一种基于稀疏连接的神经网络模型,使用自适应稀疏连接和纯化神经元的方法进行训练,并将其应用于 MLP 模型上,测试结果表明,该方法在 15 个数据集上表现出了竞争性的分类和泛化性能。
Jun, 2019
本文介绍了一种基于稀疏连接实现深度神经网络的方法,并提出了一种有效的硬件架构,该方法可以减少高度复杂的神经网络的内存需求,并且可以降低能耗高昂的问题。该方法的实现可以在三个流行数据集上提高准确性,同时减少高达 90% 的连接和存储需求以及 84% 的能耗消耗。
Nov, 2016
本文系统梳理了当前深度学习领域中关于稀疏性技术的研究现状,并提供了丰富的稀疏性实现、训练策略及其数学方法等方面的教程,指明如何通过利用稀疏性以达到优化神经网络结构和提高性能的目的。
Jan, 2021
介绍了一种新的动态稀疏重参数化方法,能够更有效地训练深度卷积神经网络,在固定的参数预算下达到最佳准确率,并发现在训练过程中探索结构自由度比增加额外的参数对网络性能的提升更为有效。
Feb, 2019
本文提出了一种简单有效的框架来对深度模型进行端到端的剪枝,方法是先引入一个称为 “缩放因子” 的新参数来缩放特定结构的输出,然后对这些因子加入稀疏正则化,并通过修改的随机加速远端梯度(APG)方法解决这个优化问题。将某些因子强制为零,可以安全地移除对应的结构,从而削减 CNN 的不重要部分,该方法相较于其他需要数千次试验或迭代微调的结构选择方法具有更好的性能。
Jul, 2017
本研究应用基于网络的信息过滤技术设计了一种新的深度神经网络单元,其具有由基础数据的同调结构构建的稀疏高阶图形架构,同时证明它在传统难以解决的领域,如表格数据和时间序列回归问题中的有效性,仅使用一小部分参数即可超越最先进的机器学习和深度学习模型的结果。
Jun, 2023
本文介绍了一种新型的基于拼贴的稀疏卷积算法,通过利用计算掩码的稀疏结构,降低了 CNN 中高分辨率计算的复杂度,并应用于基于 LiDAR 的 3D 目标检测中,最终获得了显著的速度提升而无需牺牲准确率。
Jan, 2018