双重对比学习:基于标签感知数据增强的文本分类
通过引入样本对间对比学习和原型 - 样本对比学习,提出了一种新颖的语义感知双对比学习框架,通过联合训练三个模块,准确捕捉与图像内容相关的判别性标签级特征,并在五个具有挑战性的大规模公共数据集上实验证明了该方法的有效性优于现有技术。
Jul, 2023
该研究提出了一种名为 Contrastive Learning with Stronger Augmentations(CLSA)的新的对比学习方法,利用数据扩增引入样本多样性,从而提高检索能力,实验结果表明该方法在 ImageNet 数据集上的表现接近有监督结果。
Apr, 2021
本文提出一种基于标签锚定的对比学习方法(LaCon),用于自然语言理解分类任务中,不需要专门的网络架构或任何额外的数据增强,可轻松插入现有的强大预训练语言模型,相比于现有最先进技术,LaCon 在 GLUE 和 CLUE 基准测试数据集上有高达 4.1% 的提升,同时在少量样本和数据失衡的情况下也展现出显著的优势,获取了 FewGLUE 和 FewCLUE 基准测试任务高达 9.4% 的提升。
Apr, 2022
本文提出了一种针对对抗性对比学习的新算法 CLAE,通过使用对抗性样本增强数据并在优化时考虑一个批次中的所有图片,能够更好地定义正负样本,充分提高自监督学习任务的性能和学习能力。
Oct, 2020
该研究提出了一种新型的学习范式 - 统一对比学习(UniCL),通过将人类标注的图像标签数据和网络爬取的图像文本数据相结合,学习出在零样本,线性探测,完全微调和迁移学习方案中具有语义丰富而有区分性的表示。在各种基准测试中,UniCL 的性能均优于语言图像对比学习和监督学习方法,并且在纯图像标签数据上,其表现也不亚于监督学习方法。
Apr, 2022
该论文介绍了使用对比学习(CL)进行无监督图表示学习的方法。作者通过探究使用域不可知图形扩充的高性能图像对比学习和 DAGAs 对图形对比学习的影响,提出了几个检查机制和设计任务感知扩充的策略,以提高模型的准确性。
Nov, 2021
我们介绍了一种 Label-Aware SCL 方法,通过利用类别之间的相似性,将层次信息融入到 SCL 中,从而创建一个更结构化和具有辨别性的特征空间,实现了更好的文本分类性能。
Jan, 2024
本文提出了五个用于多标签多分类任务的对比损失,探索了对比学习在不同策略下用于多标签多分类任务的有效性,并为对比学习技术在多标签分类任务上提供了一组基准方法。本文的实验结果表明,我们提出的对比损失可以为多标签多分类任务带来一定的提升。我们的研究揭示,在多标签多分类任务中,如何 “适当地” 改变对比学习的对比方式是提高其适应性的关键思想。
Dec, 2022