Dec, 2023

自动化持续学习

TL;DR通用学习系统应在不断变化的环境中以开放式方式不断改进自己。本文提出一种自动连续学习 (ACL) 的方法,通过训练自指神经网络来元学习其上下文中的连续学习算法,以解决传统神经网络学习算法中的 “上下文灾难性遗忘” 问题。ACL 有效地解决了这个问题,并且其学习到的算法表现优于手工设计的算法,在无回放设置下,在 Split-MNIST 基准测试上实现了持续学习多个少样本和标准图像分类数据集的目标。