关键词supervised contrastive loss
搜索结果 - 12
- 税收是您所需的一切:将分类层次关系集成到对比损失中
我们提出了一种新型的监督对比损失函数,在表示学习过程中引入了分类树结构信息。该损失函数通过强制要求具有相同类标签(正样本)的图像在投影空间中比具有不同类标签(负样本)的图像更接近彼此来实现。该方法的优势在于它直接惩罚表示空间的结构,这使得在 - 使用有监督对比时间转换器进行时间序列表示学习
我们提出了一种称为 SCOTT 的简单而新颖的融合模型,用于学习标记时间序列数据的表示,通过合适的数据增强方法和 Transformer 与 Temporal Convolutional Networks 的组合,实现了全局和局部特征的高效 - AAAI长尾识别的解耦对比学习
使用监督对比损失(SCL)方法进行视觉表示学习,在长尾识别场景下,通过解耦 SCL 的训练目标和使用基于图像补丁的自我蒸馏来优化性能,实验证明该方法在长尾分类基准上具有卓越的准确率,并与集合方法相结合进一步提高性能。
- 邻域增强的监督对比学习在协同过滤中的应用
我们提出的 Neighborhood-Enhanced Supervised Contrastive Loss (NESCL) 模型在三个真实数据集上, Yelp2018、Gowalla 和 Amazon-Book,相较于原始的 SGL 模 - 基于分段增强对比表示学习的医学报告生成
通过医学图像分割(SAM)模型实现对器官、异常、骨骼等的分割,利用一种监督对比损失函数缓解数据偏差并提高医学图像报告的质量。实验证明所提模型在 IU X-Ray 公共数据集上表现出的卓越性能。
- 带有重新平衡的对比损失的长尾学习
通过将受监督的对比损失整合到基于交叉熵的通信中,解决了长尾学习问题。具体而言,使用 Rebalanced Contrastive Learning (RCL) 方法来提高长尾分类准确度,通过实现几个关键方面,即特征空间均衡、类内紧凑性和正则 - SINCERE: 监督信息噪声对比估计再探讨
通过改进 InfoNCE 的 Supervised InfoNCE REvisited(SINCERE)损失函数,我们提出了一种理论上合理的自监督深度学习方法,可以有效防止同类图像在嵌入空间中互相排斥,从而提高预训练过程中的类别嵌入分离性和 - 当硬负采样遇上监督对比学习
提出了一种新的监督对比学习目标 SCHaNe,在细调阶段引入了硬负样本采样,实验结果表明,在各种基准测试中,SCHaNe 在 Top-1 准确率上优于强基准 BEiT-3,少样本学习设置中取得了 3.32% 的显著增益和完整数据集细调中的 - 有监督对比损失学习正交框架及批次关系
本文通过实验证明:监督对比损失学习到的嵌入空间的几何结构形成正交框架,而交叉熵损失学习到的嵌入空间的几何结构高度依赖于类大小;同时,通过选取不同的数据分组算法,加快正交框架的出现,为监督学习提供一种新的训练策略
- 基于 t-vFM 相似度的鲁棒特征学习方法用于连续学习
本文提出使用不同的相似性度量方法来替代余弦相似性,以学习更加健壮的表示形式,从而提高连续学习中的图像分类任务的效果。
- CVPR面向对齐一致性的零样本视频分类表示学习
该论文提出了一个端到端的框架,用于在被观察和未被观察的类别上均保留对比和一致性特性的视觉 - 语义表示,通过同时进行对齐和鼓励学习特征分布均匀的监督式对比损失来促进模型的泛化能力,实验结果表明该方法在 UCF101 和 HMDB51 上的相 - CVPRGCR: 基于梯度子集的重放缓冲区选择,用于连续学习
本研究介绍了 Gradient Coreset Replay 作为一种新的 replay-based CL 策略,该策略可有效应对 continual learning 中的 catastrophic forgetting,同时还展示了在离