关于模态偏差的识别和减少
本研究旨在探讨每种模态对 Multimodal Machine Learning 模型的影响,并针对不同分类任务的数据集和模型,提出了一种确定每种模态对 Multimodal Machine Learning 模型的影响的方法。研究结果对于理解多模态学习中每个模态的作用,并为该领域的未来发展提供了有价值的见解。
Jun, 2023
通过减少模型对虚假相关性的依赖,我们提出了一个基于逆概率加权的通用去偏方法,以提升多模态情感分析模型的超出分布泛化能力。通过解耦每种模态的鲁棒特征和偏倚特征,并利用偏倚特征估计偏倚,我们使用逆概率加权来减少对大偏倚样本的影响,从而促进情感预测的鲁棒特征学习。实证结果证明了我们提出的框架具有优越的泛化能力。
Jul, 2023
本研究探讨了将集成学习应用于单个模型的各种方法,通过适当的初始化和相互学习等策略增强单模态模型,达到了在 Something-Something-v2 基准测试中的最优结果。
Nov, 2020
鉴于多模态差异,对象偏差及信息不平衡等因素,本研究通过对比视觉语言模型进行深入调查并提出了量化对象偏差的方法,揭示了信息不平衡是产生多模态差异和对象偏差的驱动因素。
Apr, 2024
通过学习多种模态(如音频和视频)可以利用互补信息,提高模型性能,本文提出了一种多损失目标和改进的平衡过程,通过动态调整不同模态的学习速度来实现更好的结果。
May, 2024
通过引入多模态 OOD(Out-of-Distribution)检测基准 MultiOOD,本研究评估了现有的单模态 OOD 检测算法,并提出了 Agree-to-Disagree(A2D)算法和 NP-Mix 异常值合成方法,通过利用多模态信息和探索更广泛的特征空间,显著提升了现有 OOD 检测算法的性能。
May, 2024
本文介绍一种解决多模态学习中偏向某一模态的训练分布不平衡问题的新方法,使用正则化训练多模态架构使特征提取器在训练期间被同等看待以提取多模态分布,结果表明该方法在 KAIST 和 UTokyo 数据集上显着提高了最先进的性能。
Feb, 2023
通过引入反事实数据增强和对抗学习的方式,本研究提出了一种新颖的去偏置多模态讽刺检测框架,旨在提高模型的鲁棒性和抑制有偏词语的不良影响,大量实验证明了该框架的卓越性能。
Dec, 2023
本文提出了一种基于因果推断的针对 out-of-distribution (OOD) 多模态情感分析的方法,通过引入反事实框架以及考虑多模态语义,分别考虑文本的直接和间接效应,对多模态情感进行可靠的预测并展示了该方法在泛化能力方面的优越性。
Jul, 2022
本文提出了三个设计均衡的多模式主动学习策略的指导方针,并通过调节模态间的支配度来调节梯度嵌入,从而实现更公平的数据选择,本方法在多种多模态分类任务上表现优异,实现了更平衡的多模态学习。
Jun, 2023