Mar, 2024

XCoOp:基于概念引导的上下文优化的计算机辅助诊断可解释式提示学习

TL;DR利用强大的视觉 - 语言模型(VLM)来完成各种下游任务已引起越来越多的关注。我们提出了一种新颖的可解释提示学习框架,通过在多个粒度上对医学知识、可以学习的提示和临床概念驱动的提示的语义进行对齐,来解决这个问题,并为提示提供了视觉和文本解释。通过对各种数据集进行广泛的实验证明,我们的方法同时实现了优越的诊断性能、灵活性和可解释性,为基础模型在促进可解释的人工智能方面的有效性提供了新的视角。