比赛核函数中的干扰
本研究中,我们引入了非独立同分布模型来提高图像特征表示方法的性能,并通过模型的超参数的数据对数似然梯度来编码图像。我们同时使用变分自由能边界来学习超参数和计算近似的 Fisher kernels,其结果表明,与现有的特征集成方法中使用的幂归一化方法相比,我们的模型会提高性能。
Oct, 2015
本文提出了一种基于角度的局部描述符集成方法,通过将角度一同编码到集成阶段并结合单项式嵌入来实现对局部描述符的聚合。此方法不需要码本,并且适用于多种编码方法。在 Holidays 和 Oxford buildings 数据集上的实验证明其对于图像检索相当有效。
Jul, 2014
本文提出了一种基于像素梯度有效匹配内核的多核局部补丁描述符,其中包括两种梯度参数化,分别提供了不同类型的补丁误差纠正鲁棒性。结合不带监督或带有监督的描述符空间白化,大大提高了性能,并对白化对补丁相似性的影响进行了分析,并证明其语义意义。我们的无监督变量是构建没有标记数据需求的最佳表现的描述符。尽管所提出的描述符很简单,但在许多不同的任务上与深度学习方法相比竞争力很强。
Nov, 2018
研究表明,基于单词嵌入的相似性度量方法在无监督语义文本相似性(STS)任务中正在与更复杂的深度学习和专家设计的系统轻松竞争。通过将一个单词嵌入视为标量随机变量的例如 300 个观测值,我们避免了传统的几何方法,使用于基本汇集运算和经典相关系数得到的相似性效果很好,胜过许多最近的方法,同时速度更快且实现容易。此外,研究认为通过重新生成核希尔伯特空间之间的相关算子,可以避免汇集运算并直接比较词嵌入集。正如余弦相似性用于比较单个单词向量一样,我们介绍了中心核对齐(CKA)的一种新颖应用,作为平方余弦相似性的集合的自然推广。同样,CKA 非常易于实现,并享有非常强的实证结果。
Oct, 2019
该篇论文提出了一种用于实例级别识别的高效学习本地描述符的方法,它使用度量学习来训练深度神经网络,通过内部组件的激活传递局部描述符。与现有本地描述符相比,在两个实例级别识别任务中提供更好的性能和更低的存储器需求,这证明了全局描述符在大规模情况下不够有效,适当的局部性是不可或缺的。
Jul, 2020
本文旨在设计一种嵌入方法,将描述图像的局部特征 (如 SIFT) 映射到一个更高维的表示中,以解决图像检索问题。我们提出了一种基于函数逼近的新方法,并将逼近得到的嵌入向量聚合成单个表示,以便于图像检索。此外,我们还提出了快速版本的嵌入方法,并在标准公共图像检索基准下分别对嵌入方法和其它方法进行了实验比较,结果表明嵌入方法优于现有的图像检索算法。
May, 2016
研究提出了在低秩不定核情况下达到线性时间和内存复杂度的 Indefinite Kernel Fisher Discriminant (iKFD) 和 Probabilistic Classification Vector Machine (PCVM),并且利用 Nystr"om 近似提出了一个几乎自由参数的方法来识别地标。在各个领域的几个更大的相似度数据的评估表明,该方法提供了类似的泛化能力,同时对于大规模数据来说易于参数化和快速。
Apr, 2016
本文介绍了一种将传统的基于低级局部描述符的图像表示法和卷积神经网络的深度神经激活相结合的框架,提出了一种从预训练的 CNN 中提取公平数量的多尺度密集局部激活的有效方法,并通过改进的 Fisher kernel 框架聚合这些激活。实验证明,该方法可用作更好地执行视觉识别任务的一种主要图像表示。
Dec, 2014
本文提出使用相似和不相似描述符对的训练集来学习不变描述符,通过神经网络解决优化问题,使用相似性保持哈希框架将描述符数据映射到汉明空间以保留训练集上的相似性,该方法不仅优于简单描述符匹配,也优于最先进的相似性保持哈希方法。
Dec, 2011
本研究提出了一种基于样本原型聚类的数据集向量化方法,即包含语义原型的数据集级词袋模型,可用于评估数据集的适用性和测试集的难度,并且在不考虑数据集标签的情况下,与 Jensen-Shannon divergence 相结合,有效地衡量数据集之间的相似性。
Mar, 2023