Sep, 2023

继承与蒸馏,对比进化:探索无样本记忆的类别增量语义分割

TL;DR本文提出了一种新的方法 Inherit with Distillation and Evolve with Contrast (IDEC),它通过 Dense Knowledge Distillation on all Aspects (DADA) 和 Asymmetric Region-wise Contrastive Learning (ARCL) 模块解决了类增量语义分割中遇到的灾难性遗忘问题和语义漂移问题,并在多个 CISS 任务中展现出卓越的性能。