Jul, 2023

子空间蒸馏的持续学习

TL;DR持续学习中保护之前学习到的知识,同时学习新任务的最终目标。为了减轻对先前知识的遗忘,我们提出了一种新的知识蒸馏技术,它考虑了神经网络的潜在 / 输出空间的流形结构,在学习新任务时将数据流形近似为一阶,并利用线性子空间来建模结构并保持神经网络的知识,从而降低持续学习中的灾难性遗忘。我们还讨论并展示了如何采用我们提出的方法来解决分类和分割问题。在实证上,我们观察到我们提出的方法在包括 Pascal VOC 和 Tiny-Imagenet 在内的几个具有挑战性的数据集上优于各种连续学习方法。此外,我们展示了如何将所提出的方法与现有的学习方法无缝结合,以提高它们的性能。本文的代码将在此 https URL 处提供。