AAAIDec, 2023

COMMA: 共同表达多模式学习

TL;DR本研究提出了 Co-Articulated Multi-Modal Learning (COMMA) 方法,通过联合考虑视觉和语言分支的提示来增强两者的表示对齐,并减轻预训练模型中基本知识的遗忘,实现在多个任务中对新类别、新目标数据集和未见域漂移的良好性能提升。