本文提出了一种基于排名问题的新框架 WordRank,即通过坚韧的排名损失函数有效地估计单词表示,并在单词类比和相似性基准测试中与现有技术进行了比较,结果表明我们的算法在大型语料库上与现有技术竞争力强,而在训练集有限(即稀疏和嘈杂)的情况下,其性能显著优于现有技术。
Jun, 2015
本研究比较了常见文本向量表示方法中余弦相似度和皮尔逊相关系数等相似度计算方法的优缺点及其适用范围,并提出使用非参数秩相关系数作为相似度计算方法,以提高语义文本相似性任务的性能表现。
May, 2019
本文提出了 EvalRank 作为一种新的内部评估方法,它在 60 多个模型和流行数据集上进行了深入的实验,并释放了实用的评估工具包用于未来的基准测试。
Mar, 2022
本文中,我们提出了使用扩展余弦相似度测量来提高单词相似度任务的性能,我们还探索了这种方法在上下文相同的情况下特别有效的假设,并使用了不同的数据集来进行测试。测试结果显示,使用本文提出的方法可以显著提高相似度任务的性能。
使用词相似度任务作为词向量内在评估的代理,但没有标准化的词向量外部评估方法。本文探讨了使用词相似度数据集进行词向量评估时存在的问题,并总结已有的解决方案,最后指出这种方法不具可持续性,需要进一步研究词向量的评估方法。
May, 2016
研究表明,基于单词嵌入的相似性度量方法在无监督语义文本相似性(STS)任务中正在与更复杂的深度学习和专家设计的系统轻松竞争。通过将一个单词嵌入视为标量随机变量的例如 300 个观测值,我们避免了传统的几何方法,使用于基本汇集运算和经典相关系数得到的相似性效果很好,胜过许多最近的方法,同时速度更快且实现容易。此外,研究认为通过重新生成核希尔伯特空间之间的相关算子,可以避免汇集运算并直接比较词嵌入集。正如余弦相似性用于比较单个单词向量一样,我们介绍了中心核对齐(CKA)的一种新颖应用,作为平方余弦相似性的集合的自然推广。同样,CKA 非常易于实现,并享有非常强的实证结果。
Oct, 2019
使用余弦相似度可对于 NLP 的任务(如问答,信息检索,机器翻译)进行上下文嵌入建模,但是我们发现使用 BERT 解析的余弦相似度在估算词语相似度方面存在高低频词的差异,在控制多义性和其他因素后,高频词与同一词语的其他实例或其他上下文中的其他词语的相似度被低估,这种低估是由于高低频词的代表性几何形状差异导致.
May, 2022
本文研究了利用余弦相似度对词嵌入进行编码的偏见评分,提出了一种新的偏见评分方法 SAME,并用实验证明其比现有的评分方法更能准确评估词嵌入中的偏见。
用于量化高维对象之间语义相似度的余弦相似度在实践中比未归一化的嵌入向量点积表现有时更好、有时更差。通过研究基于正则化线性模型的嵌入,我们得出了余弦相似度可以产生任意且无意义的相似度的结论。因此,我们提醒不要盲目使用余弦相似度,并提出替代方法。
Mar, 2024
本文介绍一种学习图嵌入的简单、有效方法,通过密集向量表示来近似节点之间的距离,以反映用户定义的图距离度量,避免了直接在图结构上进行操作引起的低效性,证明该方法在语义相似性和词义消歧任务上的表现比其他图嵌入方法更优秀,同时在 WordNet 和两个知识库图上进行了评估。
Jun, 2019