CVPRNov, 2018

无记忆学习

TL;DR提出一种新方法 “无需记忆学习 (LwM)”,通过信息保留惩罚方法 Attention Distillation Loss (L_AD) 来保存基础类的信息,同时逐步学习新类,实现在设备内存有限的情况下进行增量学习并取得更好的效果,实验证明在 iILSVRC-small 和 iCIFAR-100 数据集上,加入 L_AD 相较于现有的信息保留方法有更好的基础和增量学习准确度。