ICCVAug, 2023

针对选择性源任务遗忘的一次性迁移学习

TL;DR提出了一种名为 “一次性迁移学习(DTL)” 的新转移学习范式,通过使用 Gradient Collision loss(GC loss)实现知识消除,从而在不降低目标任务性能的情况下,仅处理源任务,GC loss 训练的模型在目标任务上表现出色,且极大地降低了 “知识泄露” 风险。