受限内存下高效元生存学习
本文提出了一种基于元学习和稀疏经验回放的方法来实现连续学习,以避免深度学习模型在顺序学习任务时遗忘先前的知识。该方法在真实场景下实现了连续的文本分类和关系提取任务,并展示了其低计算和空间复杂度。
Sep, 2020
提出一种生命化语言学习的模型,其中采用了 “稀疏经验回放” 和 “本地适应” 以减轻灾难性遗忘,并将这种情况应用于文本分类和问题回答中,证明了这种模型的优越性,同时表明通过随机选择存储在内存中的样本可以大大减少经验记忆模块的空间复杂度,并认为经验记忆组件是构建通用语言智能的重要组成部分。
Jun, 2019
本文提出一种新的可扩展体系结构和训练算法解决 Deep Learning 在 lifelong learning 场景中面临的挑战,尤其是在训练时间和内存限制下存储经验的问题,并在性能评估中取得了显著提升。
Nov, 2017
本文提出了一种基于内部工作记忆模块的决策制定代理,可以通过存储、混合和检索信息来改善其在不同下游任务中的训练效率和泛化能力,并进一步证明记忆微调可以增强所提出架构的适应性。
May, 2023
本文探讨了稀疏经验回放对于对抗灾难性遗忘的长期语言学习的作用,特别是对于文本分类和问答任务中的样本采样策略对于模型性能的影响。作者发现,在随机存储整个数据流中的均匀数量的样本的方法下,模型表现高,特别适用低存储容量的情况,这与计算机视觉研究一致。
Oct, 2022
终身学习对于人类和动物至关重要,然而,在机器学习和神经网络模型中,随着不断获取非静态数据分布的信息,由于 “灾难性遗忘” 或干扰而面临着困难。本论文对于人类生物系统中的终身学习因素进行了总结,并比较了现有神经网络方法的差异。
Feb, 2018
本文从优化的角度提供了基于情节记忆方法的两种改进方案 MEGA-I 和 MEGA-II,这两个方案通过将当前梯度与在情节记忆上计算的梯度相结合,调节旧任务和新任务之间的平衡,并通过新的损失平衡更新规则,极大地提高了性能,在四个常用的终身学习基准测试中,将误差降低 18%。
Sep, 2019
本文提出了一种双存储自组织架构用于实现终身学习,其中包含具有学习物体实例和类别的互补任务的两个增长式重复神经网络;通过在连续感官经历中扩展它们,这两个增长网络都能够提取出对未知数据更强的特征。
May, 2018
通过调查现有的方法及其在预训练模型上的表现,我们观察到 Generic Pre-training 方法隐含地减轻了多任务学习中遗忘现象的影响,因为预训练权重看起来通过导致更宽的极小值来缓解遗忘现象,基于这个发现,我们建议联合当前任务的损失和损失基底锐度的优化方法,以在顺序微调期间显式地鼓励更宽的基底,在多种设置中实现与最新技术的性能相当的顺序连续学习,而无需保留随任务数缩放的内存。
Dec, 2021