前向前向算法中稀疏性的理论
基于梯度稀疏性和随机矩阵理论的激活稀疏性,该研究解释了深度模型中激活稀疏性的理论机制以及其在对抗鲁棒性和性能方面的重要性,并提出了几种用于训练和稀疏调整的模块和修改的方法。
Sep, 2023
本文研究了深度神经网络的泛化能力和节点稀疏性之间的关系,通过开发一个基于减小的有效模型大小的框架来证明了稀疏和泛化之间的基本权衡关系,并提出了一种新的方法来分析这个问题。
Jul, 2023
本研究中,作者探讨了一种名为 Forward-Forward 的训练神经网络的方法,与传统的 Backpropagation 背向算法相比,它采用了本地学习规则。作者通过实验发现,使用 Forward-Forward 算法进行训练所得到的神经网络内部表示可以组织成强健的、类别特定的合奏,并且由极少量的活跃单元(高稀疏度)组成,这与感官处理期间皮层表示的观察结果非常相似。这表明在模拟皮层学习方面,Forward-Forward 算法提出的学习过程比 Backpropagation 更优秀。
May, 2023
本文指出,关于促进稀疏性的更强大的贝叶斯算法具有类似于长短期记忆 (LSTM) 网络或先前设计用于序列预测的替代门控反馈网络的结构,从而导致了一种新的稀疏估计系统,当授予训练数据时,可以在其他算法失败的方案中高效地估计最优解,包括在实际方向 - 到达 (DOA) 和三维几何恢复问题中。
Jun, 2017
该研究提出了高效的稀疏训练方法,通过引入连续性问题,将优化过程分为权重更新和结构参数更新两个步骤,前者可利用稀疏结构实现,后者通过方差减少策略梯度估计器而获得全面稀疏训练,维度之间的联系局限在两个步骤中,展示了远远超过之前方法的训练加速效果。
Nov, 2021
该研究论文介绍了一种名为 “Forward Forward 算法” 的新颖神经网络训练方法,通过在 MNIST 和 IMDb 数据集上的实验拓展了该方法的应用范围,并提出了一种使用金字塔优化策略的阈值设定方法。实验结果表明,该方法在电影评论情感分析任务中取得了令人满意的性能,并通过可视化参数的分析揭示了一些重要洞察,例如,Forward Forward 网络所获得的权重的平均值和方差明显较大。
Jul, 2023
通过剪枝层来诱导和利用稀疏激活是提高深度网络计算效率的一种有前途的方法,本论文使用大尺度高斯过程极限分析了随机初始化时诱导隐藏层稀疏性的非线性激活函数,证明了一种先前未报告的培训不稳定性,并表明通过剪枝激活函数的幅度,可以克服这种不稳定性,理论验证和数值实验表明,这种剪枝激活函数能够在训练和测试时保持接近完全准确度的同时达到高达 85%的稀疏度。
Feb, 2024
这篇论文首次从理论上分析了低秩和稀疏性在一层 Transformer 中的特性,并通过数量化可训练参数的梯度更新得出了梯度具有低秩性的结论,同时论文还分析了模型剪枝对泛化能力的影响以及对计算效率的改善。
Jun, 2024