Mar, 2022
基于视觉Transformer的免样例持续学习:注意力、功能和权重正则化分析
Towards Exemplar-Free Continual Learning in Vision Transformers: an
Account of Attention, Functional and Weight Regularization
TL;DR本文采用规则化技术研究视觉Tansformers的连续学习,特别关注其关键自注意机制的知识如何进行高效凝结。作者对比两种Method的性能,提出了一种可能具有Plasticity 和 Stability 的新方法,实验证明本研究提出的方法效果显著且 ViTs 可能在一定程度上天然倾向于连续学习。