本文提出一种基于神经网络的图嵌入方法 —— 加权内积相似性,其能够优化相似度模型,学习任何相似度模型,且在节点表示学习和归纳任务中有高效表现。
Feb, 2019
该论文系统研究了内积相似性连接问题,提出了新的上下界和基于线性草图的索引方法,并探讨了不对称性的影响。
Oct, 2015
通过分析内积关系,研究了神经网络特征图的内积在模拟输入之间的关系方面的广泛应用,证明了多层感知器自身的内积是对称正定关系函数的普遍逼近器,而两个不同多层感知器的内积是非对称关系函数的普遍逼近器,并通过内积关系将任何抽象预订定义的检索机制近似为注意力机制,从而应用于分析 Transformer 背后的注意力机制。同时,利用经济学中的 Debreu 表示定理以效用函数的形式表示偏好关系。
Feb, 2024
通过采用深度感知相似度测量(DeePSiM)来代替在图像空间中计算距离,我们的研究表明,此类损失函数能够更好地反映图像的感知相似度,从而减少图像平滑问题,并且在自编码器训练、变分自编码器的修改以及深度卷积网络的反演三种应用场景中表现出令人印象深刻的生成结果。
Feb, 2016
本文研究了卷积神经网络的隐藏变量作为感知相似度度量的有效性,发现自学习的感知相似度度量(LPIPS)容易受到对抗样本的攻击,但无限家族随机变换的自增强技术可以使度量鲁棒性提高,同时保持对人类判断的预测能力,并发现自增强度量空间中的 “感知凸性” 现象,即相似图像的凸组合保留外观,离散测地线产生有意义的帧插值和纹理变形。
Jun, 2019
本文提出了一种基于 CIP Loss 的形状嵌入方法,旨在解决大规模 3D 形状检索中的形状表示问题。实验结果表明,我们的方法在两个公共 3D 对象检索数据集上均取得了最先进的效果。
通过在神经科学中建模感知皮层和生物系统中的高效编码假设,我们重新利用压缩潜在表示来优先考虑语义相关性,同时保留感知距离。我们提出的方法,压缩感知图像补丁相似度(CPIPS),可以从学习的神经编解码器以较低的成本进行计算,并且比基于深度神经网络的感知度量(如 LPIPS 和 DISTS)计算速度显著更快。
Oct, 2023
本文提出了一种基于协方差矩阵的图形表示方法,并定义了相似度测量方法,可用于社交网络的分类,同时该方法的计算效率高,可用于大规模实践,并对截断幂次迭代的研究提供了理论和实证支持。
Apr, 2014
本文提出了一个理论框架,以理解维度对向量嵌入的影响,并提出了 Pairwise Inner Product(PIP)loss,它是一种基于向量嵌入相似度的齐次不变量度量,用于捕捉向量嵌入之间的功能差异和维度的选择偏差 - 方差权衡问题,并发现了向量嵌入的鲁棒性与前向稳定性,并展开实证研究。
Mar, 2018
本文主要探讨了最大内积搜索的效率问题,提出了一种基于 k 均值聚类算法的简单方法,在保证检索准确率的同时显著提高检索速度,并在两个标准推荐系统基准测试和大词汇量词嵌入上进行了实验证明。
Jul, 2015