基于多视角对比学习提升情感分析中形式表征
本文提出了一种名为 MultiModal Contrastive Learning (MMCL) 的新型框架,用于捕捉多模态表示中的内部和外部动态。我们采用对比学习技术,包括单模态对比编码和伪孪生网络,来过滤内嵌噪声和捕获跨模态动态。此外,我们设计了两种对比学习任务,实例和基于情感的对比学习,以促进预测过程并学习与情感相关的更多交互信息。在两个公共数据集上进行的广泛实验表明,我们的方法超过了现有的最先进方法。
Oct, 2022
通过引入一种名为监督角度对比学习的框架,以增强多模态表示的区分性和泛化性,克服了融合向量中的模态偏差,实验结果和对两个广泛使用数据集的可视化结果表明了我们的方法的有效性。
Dec, 2023
本文设计了一个基于自监督学习策略的标签生成模块,通过联合训练多模态和单模态任务来分别学习一致性和差异,采用权重调整策略来平衡不同子任务的学习进度,验证了自动生成的单模态监督标签的可靠性和稳定性,超过了现有的最先进方法和人工注释的单模态标签。
Feb, 2021
通过同时利用内部数据属性和跨模态关联的语义信息,开发了一种学习视觉表示形式的方法,其中包括多种类型的对比损失,从而提高了学习到的视觉表示的质量。该方法在 COCO 数据集上进行训练,可以被用于图像分类、目标检测、实例分割等下游任务,并在 ImageNet 数据集上实现了 55.3% 的顶级验证精度。
Apr, 2021
基于表示距离的互信息最大化方法用于量化不同视图的重要性,进而实现更高效的对比学习和表示解耦。通过在频率域提取多视图表示,并基于不同频率之间的互信息重新评估其重要性,本文提出的框架能够有效约束互信息最大化驱动的表示选择,推动多视图对比学习。
Feb, 2024
本文提出了一种新的多模态对比方法,以无单模预测的弱监督下探索更可靠的多模态表示,实验证明该方法优于当前最先进的多模态方法,适用于图像 - 文本分类。
May, 2023
该论文提出了一种用于多模态情感检测的对比学习和多层融合(CLMLF)方法,通过对文本和图像进行隐藏表征编码,设计了两个对比学习任务,标签对比学习和数据对比学习,有助于模型学习多模态数据中与情感相关的共同特征。在公开数据集上进行的大量实验证明了该方法与现有方法相比,在多模态情感检测方面具有很好的效果。
Apr, 2022
提出了一种无监督多模态语言表示提取方法,利用卷积自编码器将单词级对齐的多模态序列映射到 2-D 矩阵中,证明其在情感分析和情绪识别领域可以达到接近最先进性能的结果。
Oct, 2021
本篇研究提出了一种基于 CLIP 引导的对比学习的架构,用于执行多模态特征对齐,将来自不同模态的特征投影到一个统一的深度空间,实验结果表明,我们提出的模型在多模态讽刺检测和多模态情感分析任务中明显优于多个基准模型,我们的特征对齐策略相对于其他聚合方法和甚至富含知识的模型也带来了明显的性能增益,此外,我们的模型实现简单,无需使用特定任务的外部知识,因此可以轻松迁移到其他多模态任务。
Mar, 2024
本研究通过多种不同格式的单一模态对比学习框架,最大程度地提高音频表示的有效性,取得了一定的效果。在 AudioSet 和 ESC-50 分类任务上,我们的声音单一方法取得了新的最佳结果,平均精度为 0.376,准确率为 90.5%。
Mar, 2021