关键词self-contrastive learning
搜索结果 - 5
- 面向会话推荐的自对比学习
本研究提出自我对比学习算法,并将其应用于会话推荐问题中,以优化物品表示空间的均匀度和减少模型复杂度,进而实现比之前的算法更好的预测性能。研究证明,该算法不需要额外的采样和数据增强操作,并在三个基准数据集上得到了统计上显著的性能提升。
- 减轻非监督句子表示中的过度平滑
本文介绍一种名为自对比学习(SSCL)的简单方法,用于学习无监督的句子表示,并基于该方法构建一个插入式对比框架,从而提高性能,并在语义文本相似度和转移数据集上超越了不同强大基线(如 BERT 和 SimCSE)。
- CVPR民主确实重要:用于共同显著目标检测的全面特征挖掘
本文以民主原型生成模块为基础,采用自对比学习模块进行降噪,配合民主特征增强模块,生成包含充足的协同突出区域响应的完整原型,从而提升协同突出物体检测性能,在 CoCA 等真实场景下优于现有最佳方法。
- 弱监督查询视频定位的多尺度自对比学习与硬负例挖掘
本研究提出了一种自我对比学习框架来在弱监督的条件下解决基于查询的视频定位任务,通过学习针对查询语义的逐帧匹配分数以预测可能的前景帧,并采用粗到细的对比学习方法来区分误检的帧,从而提高了视频定位的准确性。
- MM自监督点云学习中的硬负采样自对比学习
本研究提出了自对比学习方法用于自我监督点云表示学习,以捕捉点云的局部几何模式和非局部语义基元。实验结果表明,该方法在自我监督点云分割和分类转移学习等领域的基准数据集上取得了最先进的性能。