Jul, 2024

通过正交学习和交叉正则化增强视觉-语言模型的鲁棒性

TL;DR通过引入正交微调方法和交叉正则化策略,本文提出的OrthCR提升了视觉-语言模型(VLMs)的稳健性和泛化能力,同时保持了零样本泛化的稳定性。