本文旨在解决域适应问题,提出训练方法和策略,包括将深度神经网络分为特征提取器和分类器、使用伙伴交互训练方法、训练新问题的稳健性特征。新方法在三个域泛化基准下表现出最先进的性能,还表明该方法有助于计算机视觉中的标准方法。
Jan, 2019
我们提出了一种资源有效的连续学习方法,称为弹性扩展网络(E2Net),通过核心子网络精简和精准回放样本选择,实现了卓越的平均准确性和降低遗忘,在相同的计算和存储限制条件下,同时最小化处理时间。
Sep, 2023
通过采用一种集成学习算法和源域适应方法,EPOpt 算法试图克服用深度神经网络等丰富函数逼近器学习现实任务策略时遇到的复杂度和安全等难点,并能够学习到更健壮和更好的广义目标领域策略。
Oct, 2016
在严格的条件下,通过使用生成回放、模型大小控制、时态正则化等方法,本研究提出了一种脑启发式的持续学习方法,以解决累积学习中遗忘问题,并在重要基准测试中取得了较好的实验结果。
Oct, 2023
本文提出一种新的深度学习框架 Deep Generative Replay 来解决在实现万能人工智能时的一个长期问题:灾难性遗忘。通过引入灵感于灵长类大脑海马体的短期记忆系统,在该框架中包含一个生成模型和一个任务求解模型,并在图像分类任务中进行了相关实验和测试。
May, 2017
本研究提出了一种基于经验回放的在线连续学习方法,该方法使用不对称更新规则,使得新类别能够更好地适应先前观察到的类别,并在标准连续学习基准测试中获得显著的性能提升。
Mar, 2022
研究了当神经网络被培训在一个时间上变化的数据流时,其面临的 “灾难性遗忘” 问题。本文提出并实验了一种简单的 rehearsal-based 方法,即 Experience Replay,并证明其相对于现有的基于 rehearsal 的方法有了极大的精度提升。
Oct, 2020
本研究提出了一种基于强化经验回放的连续学习方法,通过使用当前训练数据模仿未来经验,以及蒸馏内存缓冲区的过去经验,来提高模型的预测一致性,从而有效保留已获得的知识。实验结果表明,我们的方法在多个图像分类数据集上优于现有方法。
May, 2023
研究了强化学习(RL)方法在探索复杂环境时的有效性,并引入通过椭圆形周期性奖励探索方法(E3B)以扩展计数周期性奖励至连续状态空间,使用反向动力学模型学习嵌入以捕获环境可控方面,可扩展到高维像素感知和现实环境中。在挑战任务中实现了全新的 state-of-the-art,而不需要特定于任务的归纳偏差,并在稀疏奖励、基于像素的 VizDoom 环境中与现有方法匹配,在 Habitat 上的无奖励探究中优于现有方法。
Oct, 2022
通过利用生成模型技术,我们提出了 Synthetic Experience Replay(SynthER),这是一种基于扩散的方法,能够有效地提高在数据有限的情况下训练强化学习代理的样本效率,并为重放学习算法的深度学习实现开启了使用合成数据的大门。
Mar, 2023