Jan, 2022

递归梯度优化的连续学习

TL;DR本研究引入了一种名为 Recursive Gradient Optimization 的新方法,该方法不仅能够在没有数据重放的情况下修正梯度以减少遗忘,而且还具有虚拟特征编码层 (FEL),该层只使用任务描述符即可表示不同的长期结构。实验表明,与基线相比,RGO 在流行的连续分类基准测试中表现显著更好,并在 20-split-CIFAR100 (82.22%) 和 20-split-miniImageNet (72.63%) 中取得了新的最佳性能。该方法比单任务学习(STL)具有更高的平均准确性,而且灵活可靠,在学习依赖于梯度下降的模型的连续学习方面具有潜在的应用价值。