图的伯努利嵌入
本文提出一种基于自编码器的方法将实值的词向量转化为二进制向量,从而在减小空间占用的同时只损失了 2% 的精度。实验结果表明,使用这些二进制向量比使用实值向量快 30 倍。
Mar, 2018
将图编码嵌入方法扩展到包括加权图、距离矩阵和核矩阵等一般图模型,证明该方法满足大数定律和中心极限定理,能够在一定条件下实现渐近正态性,并通过一系列实验证实了这些理论发现。
May, 2024
通过使用压缩方法,我们可以将节点嵌入用比浮点向量更紧凑的向量表示,从而实现在工业级规模的图形数据上快速训练图神经网络,同时达到更好的性能。
Aug, 2022
通过神经网络进行嵌入表示学习是现代基于相似性的搜索的核心基础。该研究旨在直接学习可量化的嵌入表示和稀疏二进制哈希码,从而实现构建高效哈希表,提供显著的搜索数据减少和超越以往的度量学习方法的最新搜索准确性。
May, 2018
本文介绍一种学习图嵌入的简单、有效方法,通过密集向量表示来近似节点之间的距离,以反映用户定义的图距离度量,避免了直接在图结构上进行操作引起的低效性,证明该方法在语义相似性和词义消歧任务上的表现比其他图嵌入方法更优秀,同时在 WordNet 和两个知识库图上进行了评估。
Jun, 2019
本文提出了一种名为 `Diffusion Graphs` 的图嵌入方法,其通过简单的顶点序列生成可以获得更高的计算效率和更加准确的嵌入结果。实验证明,该方法在图中边密度越大时性能越好,同时在社区检测任务中,利用嵌入空间中的聚类节点可以获得比其他序列嵌入方法更好的结果。
Jan, 2020
本文研究在推荐系统中使用连续表示的实体进行后训练四位量化,提出了基于行均匀量化和基于码本量化的量化方法,这些方法在减少精度降级方面均优于现有的量化方法,作者在 Facebook 的生产模型中应用了均匀量化技术并表明该技术可以将模型尺寸压缩到单精度版本的只有 13.89% 的大小,而模型质量保持不变。
Nov, 2019
本文介绍了一种灵活而简单的框架,该框架可以容纳不同类型的损失函数和哈希函数,并可将现有方法放在上下文中,并简化了新问题特定哈希方法的开发。我们提出了一个具有 Hash 编码和 Hash 函数学习两个步骤的框架,其中前一步通常可以被表述为二次问题,而后一步则可以用训练标准的二元分类器来完成。实验表明,我们的方法在高维数据上比大多数最先进的方法表现显著优越。
Aug, 2014