本研究利用 DualCL 框架将分类器参数作为增广样本,与输入样本结合运用对比学习方法,在五个基准文本分类数据集上表现出较高的分类准确性,并证实了 DualCL 框架在学习具有判别性的表示方面的能力。
Jan, 2022
通过构建 SCL 算法,并将其应用到先前基于 RoBERTa-Large 模型的建议中,提出了一种新的有监督对比学习优化目标,用于自然语言理解任务的微调,在少样本学习设置下,相比于传统 CE 损失函数,该方法在多个数据集上均有显著的改进,可以更好地处理数据噪音并更好地推广至相关任务。
Nov, 2020
本篇论文对阿拉伯社交意义任务的最新监督对比学习方法进行了全面的基准研究。通过广泛的实证分析,我们展示了大多数任务中对比学习方法优于传统微调方法并且具有数据高效性。此外,本文还证明了对比学习在低资源环境下的潜力。
Oct, 2022
本综述论文探讨了如何在自监督学习中使用对比学习方法来改善文本表示学习,并介绍了现有方法的优缺点和局限性。
Mar, 2022
该论文提出了 SCCL 框架,使用对比学习来帮助无监督聚类,有效提升类别间距离,进而在短文本聚类中达到更好的结果。研究表明,SCCL 能够显著提高精度和归一化互信息,同时有效结合自下而上的实例判别和自上而下的聚类来实现更好的聚类效果。
Mar, 2021
本文提出了一种语义对比学习的方法(SCL),将距离的聚类结构引入到无标注数据的特征空间中,并通过优化实例视觉相似性和聚类决策边界的一致性来推理出语义上的实体类别,以在发现未知类别决策边界方面具有显着优势。实验证明,SCL 在六个物体识别基准测试中优于最先进的对比学习和深度聚类方法,尤其是在更具挑战性的精细和较大的数据集上。
使用 SimCSE 论文中的适用对比学习方法,将基于知识蒸馏模型 DistilBERT 的模型架构进行调整,以解决自然语言处理模型在语义文本相似度上效果不佳且过大无法部署为轻量级边缘应用的问题,最终得到的轻量级模型 DistilFace 在 STS 任务的 Spearmans 相关性上达到了 72.1,相比 BERT Base 提升了 34.2%。
Jan, 2024
DCSC 是一种半监督的文本聚类方法,可对话系统中的文本样本进行聚类,通过两阶段训练过程利用标记样本,取得最佳聚类性能,从而在文本归类方面取得了最佳性能。
将 SCL 问题描述为 RoBERTa 语言模型精调阶段的多目标优化问题,使用线性标量化方法和精确 Pareto 最优解法解决优化问题,在多个 GLUE 基准任务上,无需使用数据增强、存储器库或生成对抗性示例,找到了比竞争对比学习基线更好的学习策略。
Sep, 2022
我们提出了 D-SCL,这是一种新颖的去偏差的监督对比学习目标,旨在减少标记错误引入的偏差,并证明了 D-SCL 在各种视觉基准上稳定优于最先进的表示学习技术,提供了对标签错误的改进的鲁棒性。
Nov, 2023