May, 2024

具备成对层架构的任务不可知连续学习

TL;DR通过使用基于静态架构的方法,本研究不依赖记忆重现、参数隔离或正则化技术,仅通过将网络的最后一层替换为成对交互层来改善连续学习性能,并使用 Winner-take-all 风格激活函数中的稀疏表示来发现隐藏层表示中的相关性,实验结果表明该架构在 MNIST 和 FashionMNIST 连续图像分类实验中具有竞争性能。同时在无法访问任务标签或边界的在线流式连续学习设置中展示了这一点。