本研究利用 DualCL 框架将分类器参数作为增广样本,与输入样本结合运用对比学习方法,在五个基准文本分类数据集上表现出较高的分类准确性,并证实了 DualCL 框架在学习具有判别性的表示方面的能力。
Jan, 2022
本文通过提高对抗性鲁棒性的角度重新审视和推进了对比学习。作者设计了高频组件的对比视图,以及增加伪监督刺激的对比学习来帮助保护模型的鲁棒性。作者提出了一种新的对抗性对比预训练框架 AdvCL, 在多个数据集上展示了其卓越的性能,该框架能够提高跨任务鲁棒性传输,同时不会降低准确性和微调效率。
Nov, 2021
本文提供了第一个统一的理论框架,旨在确定对比学习 (CL) 学习了哪些特征。我们的分析表明,(随机) 梯度下降向查找更简单解决方案的偏见是导致子类表示崩溃和抑制更难的类相关特征的关键因素。此外,我们提出了增加嵌入维度和提高数据增强质量作为两个理论动机解决 {特征抑制}。我们还首次理论解释了为什么同时使用监督和无监督 CL 会产生更高质量的表示,即使用常用的随机梯度方法。
May, 2023
通过自监督对比学习,深度神经网络通过学习具有卓越的鲁棒性的表示矩阵来避免噪声标签造成的过拟合,并进一步证明通过对比学习预训练的深度神经网络具有低秩结构,这种结构可以帮助深度神经网络更好地适应噪声标签。
该论文提出了 SCCL 框架,使用对比学习来帮助无监督聚类,有效提升类别间距离,进而在短文本聚类中达到更好的结果。研究表明,SCCL 能够显著提高精度和归一化互信息,同时有效结合自下而上的实例判别和自上而下的聚类来实现更好的聚类效果。
Mar, 2021
以自监督对比学习为基础,提出了一种新颖的多阶段对比学习框架 (MCL),旨在解决特征抑制问题,从而学习到更全面的表示,并能够提升各种下游任务的性能。
Feb, 2024
介绍了一种半监督对比学习框架,应用于无文本说话人验证,通过广义对比损失,将监督度量学习和无监督对比学习统一,从而自然地确定了半监督学习的损失。在 VoxCeleb 数据集上进行实验,演示了 GCL 使得听众嵌入在三种方式下学习,监督学习、半监督学习和无监督学习,而不需要更改损失函数的定义。
Jun, 2020
研究了在弱监督下利用联合训练有监督和无监督对比损失来训练相似图,证明了半监督标签可以改善下游分类错误的绑定,而噪声标签的影响有限。
Jun, 2023
该研究提出了一种基于无监督学习方法的连续学习技术,可以在不需要人工标注的数据的情况下设法学习连续任务的特征表示,并通过使用 LUMP 技术来缓解灾难性遗忘问题。
Oct, 2021
本文开发了一个理论框架以分析自我监督对比学习的可转移性,结果表明对比学习的下游表现在很大程度上取决于数据增强的选择,但对比学习无法学习域不变特征,即其可转移性受到限制。基于这些理论洞见,我们提出了一种新的方法 ArCL,它保证学习域不变特征,并可以轻松地与现有的对比学习算法集成。我们在几个数据集上进行实验,显示了 ArCL 显着提高了对比学习的可转移性。
Mar, 2023