Oct, 2021

通过稀疏网络在连续学习中避免遗忘并允许前向传递

TL;DR本研究提出AFAF方法解决了class-incremental learning中,既要避免遗忘又要进行前向传递的问题,同时在处理任务间语义相似度较高时,通过任务特定组件的分配来实现选择性、有效的知识转移。实验表明,该方法能够有效提供连续学习所需的各种属性,同时在各种具有不同语义相似度的挑战性基准测试中,性能优于现有最先进方法。