难负例虽难,但有用
本文讨论了利用等距逼近理论解决深度度量学习中 Triplet Loss 网络崩塌问题以及 Hard Negative Mining 的理论依据,并提出了未来避免网络崩塌的 Hard Negative Mining 方法。此理论还可拓展至其他基于欧几里得空间的度量学习方法。
Oct, 2022
在基于图像标题检索的任务中,三元组损失与半硬负例已成为从头开始优化的方法的事实选择。最近度量学习的进展已经产生了比三元组损失在图像检索和特征表示等任务上效果更好的损失函数。本文通过比较两种基于图像标题检索方法上的三种损失函数来回答这个问题,结论是否定的:在基于图像标题检索的任务中,三元组损失与半硬负例仍然优于度量学习中新近引入的损失函数。我们使用一种计数方法来进行分析来获得更好的理解这些结果。
Feb, 2022
本文探讨了在噪声对比估计中选择负面案例的重要性,发现硬负面案例 —— 在模型下得分最高的不正确案例是有效的,我们开发了分析工具以理解硬负面案例的作用,并通过将负面分布设置为模型分布来减少误差,同时将硬负面案例与适当的评分函数相结合,取得了强大的零 - shot 实体链接结果。
Apr, 2021
本文提出了一种名为 Adversarial Training with Triplet Loss 的算法,通过利用距离度量学习技术中的 Triplet Loss 方法,提高了深度神经网络的鲁棒性,并在此基础上提出了一个集合版本的算法,可以取得更好的防御效果。同时,作者还证明了此三元组损失可以用于提高其他防御方法的性能。
May, 2019
本文提出了三元组网络模型,通过距离比较来学习有用的表示方法,在多个数据集上的结果显示其比竞争对手孪生网络学习了更好的表示方法,而且还探讨了其作为无监督学习框架的未来可能用途。
Dec, 2014
该文章提出一种称之为 “Easy Positive” mining 的松散的嵌入策略,并利用实验和可视化方法证明了这种方法可以获得更灵活、泛化性更好的嵌入,可能为图像检索领域带来新的进展。
Apr, 2019
本文提出了一种新的线性损失函数来优化深度距离度量学习中的三元组损失函数,无需使用类别中心点最优化步骤,并有了实际运行时间复杂度为线性的算法。该方法在基准数据集上达到了竞争性的检索准确性结果。
Apr, 2019
本文提出了一种新颖的深度度量学习方法,该方法将三元组模型和嵌入空间的全局结构相结合,依赖于智能挖掘过程以在低计算成本下产生有效的训练样本,通过自适应控制器来加快训练过程的收敛速度,并在实验证明相比其他竞争挖掘方法,我们的方法可以更快地进行更准确的三元组 ConvNets 训练,同时在 CUB-200-2011 和 Cars196 数据集上实现了最新的嵌入结果。
Apr, 2017