本文提出通过引入本地误差和随机辅助分类器来优化深度网络中的学习机制,旨在解决反向传播算法中存在的反应延迟和与生物神经网络的学习机制的矛盾。实验证明,该方法效果优于反馈对齐学习技术,并强调了其潜在的生物学机制和在定制硬件上的应用前景。
Nov, 2017
通过平滑分析技术,我们对具有分段线性激活函数、二次损失和单输出的多层神经网络(MNN)在可微的局部极小值处的训练损失提供保证。特别地,我们证明对于一个具有一个隐藏层的 MNN,几乎每个数据集和 dropout-like 噪声实现的每个可微局部极小值的训练误差都是零,然后将这些结果扩展到多个隐藏层的情况。我们的理论保证对训练数据几乎没有限制,并得到了数值验证。这些结果说明了为什么这些 MNN 的高度非凸损失可以通过局部更新(例如随机梯度下降)进行易于优化,这与经验证据相符。
May, 2016
提出了一种名为 AugLocal 的增强本地学习方法,通过选择其后续网络层的小部分层来增强它们之间的协同作用,解决了本地学习方法在大规模网络中与 BP 方法之间的精度差距问题,并减少了 GPU 内存使用量约 40%,为资源受限平台上训练高性能深度神经网络带来了许多机会。
Feb, 2024
本文介绍了一种利用信息传播 (loss) 解决深度网络训练时存储中间激活值(activations)的大内存占用问题的算法,该算法将网络划分为局部模块,通过异步训练这些分离的局部模块,并且通过信息传播 (loss) 损失函数,逐层改进算法提高训练效率。
Jan, 2021
针对单层神经网络的拟合损失函数,研究神经网络算法中局部极小值的性质,提出当神经元是严格凸函数并且代理损失函数是铰链损失函数的平滑版本时,在所有局部极小值处训练误差为零的条件。同时,通过反例表明当损失函数替换为二次损失或逻辑损失时,该结论可能不成立。
Feb, 2018
本文针对图像处理的默认选择 L2 损失函数提出了替代选择。通过比较几种损失函数的性能并提出一种新的可微错误函数,本研究显示出更好的损失函数会显著地提高图像恢复的质量,即使神经网络的结构不变。
Nov, 2015
提出一种周期性引导的本地化学习方法,旨在提升神经网络的泛化能力。该方法将全局目标函数反复引入神经网络的本地化损失训练中,并在多个模块的配置中具有重要的性能提升。
Aug, 2022
通过引入双网络的反向传播方法和将网络中的层激活视作概率分布的参数,本文提出了一种解决反向传播中锁死和权重传输问题的新方法,从而实现对大型网络的分布式高效训练。相应的实验结果表明了其在多种任务和结构上的优越表现。
May, 2023
神经网络训练中的局部目标与错误反向传播在效率和可扩展性方面具有相似性,本研究通过实验表明多智能体神经网络比错误反向传播在遗忘方面具有更出色的性能。
Oct, 2023
本文主要探讨了对于深度模型的错误表面进行特征化的兴趣,揭示在某些条件下,深度模型的局部最小值会影响模型训练的结果,需要额外的数据前提、初始化方案和 / 或模型类来支持全局最佳解的优化。
Nov, 2016