通过深度度学习,优化深度神经网络的目标函数在创建输入数据的增强特征表示中起着至关重要的作用。然而,基于交叉熵的损失函数对于具有大的类内差异和低的类间差异的输入数据分布来说往往不够充分。深度度量学习旨在通过学习将数据样本映射到代表性嵌入空间的表示函数,以度量数据样本之间的相似性。它利用精心设计的采样策略和损失函数,帮助优化产生具有低类间和高类内方差的区分性嵌入空间的生成。在本章中,我们将概述该领域最新的进展,并讨论最先进的深度度量学习方法。
Dec, 2023
该研究提出了一种用于重建运行成本中的基础度量和交互核的均值场游戏反问题模型,并证明了其鲁棒性和效率。
Jul, 2020
深度度量学习的一篇研究论文通过使用替代方法,建立了一个组合模型,引入电场物理学的启发,将潜在作用场作用在不同类别图像嵌入之间的交互上,并在实际数据集中实现了优异的性能。
May, 2024
本文提出了 Group Loss 损失函数,基于可微的标签传播方法实现了嵌入在奇异样本中的相似性、不同群组间的低密度特征,得到了用于聚类和图像检索的先进结果。
Dec, 2019
本文提出了一种基于近端梯度的方法,用于优化变分目标,该方法天然可并行化且易于实施,证明了其收敛性,并且实践证明其收敛速度更快,并且通常能找到更好的最优解,此外我们的方法对参数选择的敏感性更低。
Nov, 2015
本文针对平均场算法在应对不可精确推断的图模型中的广泛使用进行研究,并将该算法转化为具有多层结构和绑定权重的前向网络以进行一些自然的扩展,包括权重不绑定和 MFNs 作为推理工具和判别模型,最终的实验结果表明,在作为判别模型时,MFNs 可以比平均场算法更有效地进行推理并具有更好的性能。
Oct, 2014
本研究提出了一种基于信息传递网络的方法,能够考虑 mini-batch 中全部样本之间的关系,通过加入注意力机制,使得样本能够在信息传递中自行确定重要性,该方法在 CUB-200-2011、Cars196、Stanford Online Products 和 In-Shop Clothes 数据集上取得了最佳效果。
Feb, 2021
通过对概率测度空间进行微分计算的视角,我们提出了一个探索算法的弱广义误差和 $L_2$ 广义误差的新框架。具体而言,我们考虑 KL - 正则化的经验风险最小化问题,并建立了通用条件,使得在训练样本大小为 n 的情况下,广义误差的收敛速率是 $O (1/n)$。在一隐藏层神经网络的平均场区域的监督学习方面,这些条件反映在对损失和激活函数的适当可积性和正则性假设中。
Jun, 2023
该研究介绍了一种用加权混合分布取代 Mean Field 完全分解的方法,通过这种方式,可以更好地逼近真后验概率,进而提高一些计算机视觉算法的性能。
Nov, 2016
本文提出了多类型平均场多智能体强化学习算法,通过实验评估证明了该算法在 MAgent 框架中的性能明显优于基线算法和假设所有智能体属于相同类型的现有算法。
Feb, 2020