Aug, 2024
意外脆弱:评估和解决多模态基础模型中的提示不稳定性
Surprisingly Fragile: Assessing and Addressing Prompt Instability in
Multimodal Foundation Models
TL;DR本研究针对多模态基础模型(MFM)在面对与训练分布稍有不同的文本输入时表现不佳的问题,揭示了提示不稳定性对模型性能的重大影响。通过额外的数据增强训练,我们提出的新的方法可以显著提高模型在扰动测试数据上的准确性和稳定性,促进模型更有效地应对领域变化,提升其推理能力。