domain incremental learning (DIL) has been discussed in previous studies on
deep neural network models for classification. In DIL, we assume that samples
on new domains are observed over time. The models must cla
本研究提出了一种名为 DARE 的新颖 DIL 方法,通过分歧、适应和细化的三阶段训练过程,逐步将与新任务相关的表示适应到由先前任务样本所覆盖的特征空间中,并同时整合任务特定的决策边界,有效减缓了特征编码器的表示漂移,降低了多个 DIL 基准下的灾难性遗忘,并且在任务边界处防止了突发的表示漂移,使得 DIL 模型的性能得到了良好校准,并保持了对先前任务的性能。