该研究提出一种基于跨模态相似性的难度度量方法,用于图像字幕生成模型的训练,并在 COCO 和 Flickr30k 数据集上验证了其有效性,证明其在难样本和未见数据上表现出较高的泛化能力。
Dec, 2022
本文介绍了一种名为 SimNet 解决方案的深度连体网络,这个网络使用一种新颖的在线对挖掘策略进行了训练,同时创建了一个多尺度 CNN, 最终图像嵌入是顶层和底层嵌入的联合表示,表明这种多尺度连体网络比传统 CNN 更能捕捉细粒度的图像相似性。
Sep, 2017
本文提出一种半监督对比学习 (Semi-supervised Contrastive Learning,简称 SsCL) 的训练策略,将自监督学习中著名的对比损失与半监督学习中的交叉熵损失相结合,进而联合优化两个目标,并使用神经网络来实现。结果表明,SsCL 产生了更具有区分性的表示,并对于少样本学习非常有益。在使用 ResNet50 作为后端的 ImageNet 数据集上,SsCL 分别以 1% 和 10% 的标记样本获得了 60.2% 和 72.1% 的 top-1 精度,这比基线要好得多,也优于以前的半监督学习和自监督学习方法。
May, 2021
提出一种名为基于数据分布的课程学习(DDCL)的新型课程学习方法,通过评分方法确定训练样本的顺序,实验证明 DDCL 方法相对于无课程的标准评估,对多个数据集应用时,改善了平均分类准确率,并且通过错误损失分析表明,在单个训练时期,使用 DDCL 方法比无课程方法收敛更快。
Feb, 2024
我们介绍了一种 Label-Aware SCL 方法,通过利用类别之间的相似性,将层次信息融入到 SCL 中,从而创建一个更结构化和具有辨别性的特征空间,实现了更好的文本分类性能。
Jan, 2024
本文提出了一种通过对比学习来改善科学文档表示的方法 —— 使用引文图嵌入进行所控制的最近邻抽样来学习连续的相似度,内容主要涉及对比学习、科学文档表示、引文图嵌入、相似度语义以及相关研究。
Feb, 2022
本文提出了一种利用局部相似性的弱估计,通过单个最优化问题提取具有一致性关系的样本批次,将视觉相似性学习作为分类任务的序列,并使 CNN 巩固群体内和群组间的传递性关系,学习所有样本的单个表示。
Feb, 2018
这篇论文提出一种名为 SCL 的学习范式,支持图卷积神经网络,同时加入了数据预处理过程中节点之间的相似度计算和节点复制的数据增强方法,经实验证明可以提高推荐准确度和抗干扰能力。
Jan, 2022
使用深度神经网络通过三元损失函数对多类别不平衡数据进行分类,修改特征分布以生成安全的少数类样本邻域,实验证明该方法优于常见的预处理方法及传统神经网络。
Dec, 2023
该研究提出了一种标签混淆模型作为当前流行的文本分类模型的增强组件,可以通过在训练期间计算实例和标签之间的相似性来捕获标签之间的语义重叠,从而生成更好的标签分布以取代原始的 one-hot 标签向量,以提高最终的分类性能。
Dec, 2020