跨模态属性插入,评估视觉语言学习的鲁棒性
本篇研究提出了一种方法,使用特定的 loss 函数,在保持图像和文本子空间内的语义连贯性的同时鼓励它们之间的语义协同,并改进了基线模型,以实现跨模态检索。
Jul, 2020
研究了预训练的视觉和语言 BERT 学习跨模态信息组合表示的方法,通过交叉模态输入消融来评估这些模型集成跨模态信息的程度,并发现最近提出的模型在处理缺失视觉信息的情况下比处理缺失文本信息的情况更难,表明这些模型不是对称的跨模态。
Sep, 2021
研究了多模态分类器对于跨模态稀释的抗干扰性,开发了一种在保持与图像和已有文本相关性和主题一致的前提下,能加剧多模态分类器失效的文本生成模型,并在危机人道主义和情感检测任务上进行了实验,结果表明该模型所生成的稀释文本能在更高程度上展示多模态分类器脆弱性,具有更高的相关性和主题一致性,有望进一步鼓励研究深度多模态模型对实际场景变化的抗干扰能力。
Nov, 2022
为了解决 Vision and Language Models 对于细致的理解和 fine-grained 任务的挑战,本研究提出一种基于 intra-modal 和 cross-modal rank loss 的策略,该策略不需要额外的注释或参数,可应用于任何使用图像 - 文本对比损失训练的 VLMs。在应用于 CLIP 上时,该方法在三个细粒度基准测试上显著提高了性能,并增强了 X-VLM 在细粒度推理上的表现。
Jun, 2023
本文提出一种新的跨模态检索方法,利用生成式模型学习多模态数据的全局和本地特征,从而在 MSCOCO 数据集上实现了最先进的跨模态检索结果。
Nov, 2017
利用 FLAVA 模型进行消融研究,独立变化文本和视觉输入量,发现多模态预训练既不损害模型的语言性能,也没有一致的帮助作用;然而,由于实验规模有限,这些结论还不完全确定,需要更好的架构和多模态训练技术来验证多模态输入对语言模型和人类数据效率差距的假设。
Feb, 2024
本文提出了一个多模态鲁棒性框架,以系统分析常见的多模态表示学习方法,并针对其中的鲁棒性缺陷提出了两种干预技术,能够在三个数据集上提高 1.5-4 倍的鲁棒性。同时,通过在可能存在的额外模态上更好地利用这些干预技术,本文的算法在 AudioSet 20K 上取得了 44.2mAP 的优异表现。
Apr, 2023
XMAdapter 是一种跨模态参数高效的适配器方法,通过建立文本和图像的缓存模型,并利用视觉 - 语言双模态信息进行检索以获得推理线索。通过动态调整关联比例实现跨模态融合,解耦不同模态相似性以评估其各自的贡献,并通过适应性调整样本学习强度来增强模型性能。实验结果表明,XMAdapter 在准确性、泛化能力和效率方面明显优于以前的基于适配器的方法。
Apr, 2024
通过研究视觉语言模型(VLMs)的自适应对抗性鲁棒性,我们引入了一种多模态对抗性攻击策略,并在图像和文本编码器上采用多模态对比对抗性训练损失,以提高 CLIP 的对抗性鲁棒性。在 15 个数据集上进行的广泛实验表明,我们的方法显著提高了 CLIP 的对抗性鲁棒性,甚至在图像攻击的背景下,经过多模态对抗性攻击的模型表现出比仅进行图像攻击微调的模型更高的鲁棒性。
Apr, 2024
提出了一种使用自注意力作为额外损失项的新架构,以在联合潜在空间中表示图像和文本;在 MS-COCO 和 ARCH 两个基准数据集上进行的实验结果表明,该方法具有很好的效果。
Mar, 2022