May, 2024

适应分布偏移的大规模多模态模型:内文学习的作用

TL;DR本文研究了在特定领域如医疗保健中,大型多模态模型(LMMs)虽然具有高鲁棒性,但仍需要领域特定的适应性,因此提出了一种有效的解决方案 —— 上下文学习(ICL)。通过评估无监督的 ICL 方法和提出的基于类别条件对比不变性(CCI)的 InvariantSelectPR 方法,在面对分布转移场景下,改进了 LMMs 的适应能力,显著提高了性能。