传统的深度神经网络通常使用端到端的反向传播方法,在 GPU 内存上往往产生很大的负担。另一种有前途的训练方法是局部学习,它将网络分为多个块,并借助辅助网络并行训练它们。局部学习已被广泛研究和应用于图像分类任务中,并且其性能与端到端方法相当。然而,不同的图像任务通常依赖于不同的特征表示,这对于典型的辅助网络而言是困难的。为了解决这个问题,我们提出了全局 - 局部协作辅助网络(GLCAN)的构建方法,为辅助网络提供了宏观设计方法。这是局部学习方法首次成功应用于目标检测和超分辨率等其他任务的示范。GLCAN 不仅节省大量 GPU 内存,而且在多个不同任务的数据集上具有与端到端方法相当的性能。
Jun, 2024
提出了一种名为 AugLocal 的增强本地学习方法,通过选择其后续网络层的小部分层来增强它们之间的协同作用,解决了本地学习方法在大规模网络中与 BP 方法之间的精度差距问题,并减少了 GPU 内存使用量约 40%,为资源受限平台上训练高性能深度神经网络带来了许多机会。
Feb, 2024
文章提出一种基于联邦学习的图学习架构 FedGL,通过全局的自监督信息聚合每个客户机的模型,利用图数据的互补性,保护数据隐私并在分布式场景下提高模型质量。实验结果表明,FedGL 较传统方法在四个广泛使用的图数据集上表现优异。
May, 2021
本研究提出了一种基于图神经网络的、名称为 $ ext {{Learn Locally, Correct Globally}}$ (LLCG) 的、分布式算法,通过本地训练减少通信和内存开销,并利用全局服务器修正减少性能退化问题。实验结果显示 LLCG 可以显著提高效率且不损害性能。
Nov, 2021
本文提出了一种基于 PriorGuided Local (PGL) 自监督模型的图像分割方法,该方法利用空间转换来捕捉局部一致性,构建局部一致性损失以最小化拉平后的特征图之间的差异,并在四个公共计算机化断层扫描(CT)数据集的验证中表现出卓越的性能。
Nov, 2020
本文提出了解决反向传播过程中每层必须等待信号传播整个网络才能更新的锁定问题的替代方案 Decoupled Greedy Learning,通过使用最小反馈进行网络训练,并探讨了该方案的优化方法,可以在线性层级并行化的情况下独立地训练网络层或模块,本方案能够在异步环境下运行,并且具有更好的泛化性能,实验证明其对于 CIFAR-10 数据集和大规模 ImageNet 数据集的分类效果优于其他方案。
Jan, 2019
该论文探讨了使用分层损失函数进行神经网络分类的监督训练的方法,表明可在多种图像数据集上达到最先进水平,在局部学习的情况下,使用本地误差可能是朝着更符合生物学的深度学习的一步。
从信息论的角度出发,我们在贪婪的局部学习中提出了一种 ContSup 方案,它将隔离模块之间的上下文补充作为补偿信息损失的手段。在基准数据集(即 CIFAR、SVHN、STL-10)上的实验证明,我们提出的方法能够显著提高贪婪的局部学习性能,并且只带来最小的内存和计算开销,可以增加隔离模块的数量。
Dec, 2023
本文介绍了一种利用信息传播 (loss) 解决深度网络训练时存储中间激活值(activations)的大内存占用问题的算法,该算法将网络划分为局部模块,通过异步训练这些分离的局部模块,并且通过信息传播 (loss) 损失函数,逐层改进算法提高训练效率。
Jan, 2021
本文研究了神经网络训练的局部学习方法,并提出了一种梯度协调的局部训练策略,旨在减少内存消耗并提高性能。