持续学习:应用与未来发展
本研究全面综述了不断学习的基本设置,理论基础,代表性方法和实际应用,总结了不断学习的目标,并通过当前趋势,跨方向前景和跨学科与神经科学的联系开展了深入讨论。
Jan, 2023
通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
一个高效地累积知识、在长期生命周期中不断发展更复杂技能的代理机构,可以推动人工智能能力的前沿。本文概述和形式化了持续学习的概念,引入了一个框架和一套工具来激发进一步的研究。
Jul, 2023
这篇论文介绍了连续学习的概念和机器学习中面临的挑战,提出了在自主体或机器人中使用连续学习以适应环境和优化学习过程的方法,并介绍了现有的基准和度量标准,并提出了一种框架来评估这些方法的有效性。
Jun, 2019
本文探讨了机器学习中的持续学习范式,并提出了一种基于特征提取的持续学习框架,通过特征和分类器在每个环境中的联合训练,设计了一种高效的梯度算法 DPGD,并证明了该算法能够在当前环境下表现良好,同时避免灾难性遗忘,但在特征是非线性的情况下,并不存在这样一种算法。
Mar, 2022
在数字化的现代城市中,大量的数据和强大的计算资源促进了智能模型的快速更新,持续学习是一种新颖的机器学习范 Paradigm,它不断更新模型以适应不断变化的环境,我们的调查综述了在智能城市开发中广泛使用的持续学习方法,内容包括方法学方面、应用方面和挑战方面。
Apr, 2024
本文通过探讨 NLP 中的各种任务,分析了现有神经网络模型中的 CL 问题,并对现有的 CL 评估方法和数据集进行了批判性评论,最后展望了未来的研究方向。
Dec, 2020
本文介绍了连续学习是一种机器学习子领域,旨在处理非 iid 数据。数据分布随时间漂移可能会干扰训练模型和忘记先前学习的知识。这篇论文提出了一个简单高效的框架 Continuum,它包含多个数据加载器以及多种场景和评估指标,可用于直接关注模型设计,也可针对特定需求进行扩展。
Feb, 2021
本论文提出了一种称之为强化连续学习的方法,该方法通过巧妙设计的强化学习策略为每个任务搜索最佳神经架构,不仅能够在防止灾难性遗忘方面有很好的性能,还能够适应新任务。在 MNIST 和 CIFAR-100 数据集的连续分类任务实验中,该方法优于现有的深度网络连续学习替代方案。
May, 2018