- 音视频说话人验证的弱监督多任务学习
本文介绍了一种实现鲁棒的多模式人物表示以优化开放式音视频说话人验证的方法。通过探索多任务学习技术,我们提高了距离度量学习方法的性能,并展示了一个弱标签的辅助任务可以增加学习到的说话人表示的紧凑性。同时,我们将广义端到端损失(GE2E)扩展到 - MMSphere2Vec:一个通用的球面位置表示学习模型,用于大规模地理空间预测
该研究提出了一种名为 Sphere2Vec 的多尺度位置编码器,可在编码球面上点坐标时保留球面距离,与现有编码方案相比具有更优异的分类效果。
- 重新审视距离度量学习在少样本自然语言分类中的应用
本论文研究了距离度量学习 (Distance Metric Learning) 对少样本学习下的监督学习语言模型 Fine-tuning 在自然语言处理 (NLP) 分类任务中的影响,并发现使用基于代理的 DML 损失有助于模型的精调和推理 - 监督式语言模型微调的小样本场景距离度量损失函数
本文研究了距离度量学习 (Distance Metric Learning,DML) 损失函数对用于分类任务的语言模型有监督微调的影响。在实验中,我们使用 SentEval Transfer Tasks 数据集,发现使用 DML 损失函数可 - MM基于语义数据增强的距离度量学习用于领域泛化
该论文研究了如何通过采用特征空间中的隐式语义增强来提高模型的泛化性能,并将距离度量学习(DML)的额外损失函数和无限增强的交叉熵损失的 logits 作为 DML 损失的输入特征。实验表明,该方法在 Digits-DG、PACS 和 Off - 基于度量的小样本图分类
本研究针对数据稀缺度的问题,提出了一种利用距离度量学习方法和基于图表征学习的分类模型的 few-shot 学习方法,同时在嵌入空间中实现了任务驱动嵌入,最后提出了一种基于 MixUp 的在线数据增强技术。
- IJCAI少样本部分标签学习
本研究提出了一种基于适应距离度量学习和样本特征的 Few-shot PLL 方法,通过学习多类别分类器,从过度标注的样本中训练生成去噪的分类器用于不精确标记的学习。实验结果表明在使用少量数据集的情况下,FsPLL 可以优于现有最先进的方法并 - AAAI半监督度量学习:深度复苏
本文研究了面向深度学习的半监督度量学习,提出了基于随机和图的方法,通过传播标记数据对的相似度来挖掘度量学习的三元组约束,并施加正交性约束以避免模型萎缩。
- CVPRSLADE: 距离度量学习的自我训练框架
本文提出了一种自我训练的框架,利用未标记的数据来提高检索性能,使用伪标签增强了师生模型的性能,通过自监督表示学习初始化,设计了用于学生网络的新的特征基础函数学习组件来更好地处理师傅网络产生的伪标签噪声,并在标准检索基准上进行了评估,结果表明 - FOCAL:通过距离度量学习和行为规范实现高效完全离线的元强化学习
本研究旨在通过实施行为规范化、采用确定性上下文编码器及负幂距离度量等新方法,构建一种全新的、终端到终端的离线元元强化学习算法,以解决元强化学习中 “脱离分布状态动作引起的自举误差” 和 “训练策略学习的效率和健壮性” 等两大挑战,并将该算法 - ECCV难负例虽难,但有用
本文主要研究了三元组损失的应用,通过对三元组的空间特征进行特征分析,发现选择最难的负样本会导致失败的训练行为。为此,提出了简单的修复方法来优化损失函数,展示了使用硬负样本进行优化会产生更具可推广性的特征,从而在高内类差异数据集的图像检索结果 - ECCVProxyNCA++:重访和振兴代理邻域成分分析
通过对 ProxyNCA 进行改进和优化,我们提出了 ProxyNCA++ 这一性能更卓越的模型,并在零样本检索数据集上实现了 22.9% 的平均召回率提升,并在 CUB200、Cars196、Sop 和 InShop 数据集上取得了最佳结 - ICCV深度度量学习的弱监督自适应三元组损失函数
该研究提出一种弱监督自适应三元组损失方法来解决视觉相似性搜索中的距离度量学习问题,通过使用弱标记的产品描述数据来隐式地确定细粒度语义类别,从而提高了学习图像嵌入模型的泛化能力,并在 Amazon 时尚检索基准和 DeepFashion 店内 - SIGIR提高协同度量学习效率的负样本采样优化
本文提出了一种针对距离度量学习的负采样策略,在推荐方面获得了不错的准确度和普及性偏差表现。该策略使得 CML 模型即使在批处理大小比默认采样策略需要的批处理大小小一个数量级的情况下,仍然能够高效地工作。
- ICCVSoftTriple Loss: 无需三元组采样的深度度量学习
通过使用 SoftTriple loss 函数中每一个类别拥有多个中心的方式,可优化浅层距离计量学习算法,而无需采样。
- 密度自适应的深度度量学习
本论文提出将数据的密度测量集成到 DML 的优化框架中,以在端到端的训练过程中自适应平衡类间相似性和类内变异性,通过在三种嵌入方式上增加密度适应性,不断地在三个公共数据集上展示清晰的改善。
- Python 中的度量学习算法
该研究论文介绍了 metric-learn 这个开源 Python 包,它实现了有监督和弱监督距离度量学习算法,并提供了与 scikit-learn 兼容的统一接口,方便进行交叉验证、模型选择和管道处理。metric-learn 经过了充分 - 通过三元损失的对抗训练提高深度神经网络的鲁棒性
本文提出了一种名为 Adversarial Training with Triplet Loss 的算法,通过利用距离度量学习技术中的 Triplet Loss 方法,提高了深度神经网络的鲁棒性,并在此基础上提出了一个集合版本的算法,可以取 - 跨多个领域进行异构多任务度量学习
提出一种新的异构多任务度量学习框架(HMTML),利用多个不同子领域数据学习跨域度量,并在共同子空间中最大化预测结构的高阶协方差,进而有效地探索高阶信息,验证实验表明其方法具有更可靠的特征转换和度量。
- 距离度量学习教程:数学基础、算法、实验分析、前景与挑战(包括数学背景和详细算法解释的附录)
本教程提供了关于距离度量学习的理论基础和基础知识,以及最常见算法的全面实验分析,重点考虑降维和核化,在标准分类问题中评估所有算法的能力,并讨论了这个领域的未来前景和挑战。