Oct, 2023

学习可迁移的概念原型用于可解释的无监督领域自适应

TL;DR我们提出了一种名为“可转移概念原型学习(TCPL)”的固有可解释方法,该方法能够同时解释和改进无监督领域适应中的知识转移和决策过程,并通过学习可转移原型和设计自预测一致的伪标签策略来减小领域差距。综合实验表明,该方法不仅能提供有效而直观的解释,还能超越先前的最新技术。