本文提出了一种基于多语言词典建立知识和监督为基础的多语言词义消歧(MWSD)系统的方法,利用统一的语义表示,将多种语言的注释进行共同训练以解决 MWSD 的注释稀缺问题,并在 SemEval-13 和 SemEval-15 数据集上展示了该方法的有效性。
Oct, 2022
本研究探讨了利用词义消歧算法扩大上下文范围提高神经机器翻译的效果,通过引入三种自适应聚类算法进行了验证并在 SemEval 数据上进行了评估,随后在一个最先进的 NMT 系统中联合学习单词向量和最佳 WSD 算法定义的词义向量,最终证明这种方法可以优于几个基准模型。
Oct, 2018
本研究提出了一种基于预训练的词嵌入,利用完全无监督和无基于知识的方法诱导一个完整的词义库,并实现对 158 种语言中的单词进行上下文消歧,对于资源匮乏的语言特别有用。
Mar, 2020
该论文介绍了一种具有可解释性的 WSD 系统,它将基于知识的方法与无监督学习的方法进行了结合,提供 Web 界面和公共 API 以使意义预测对人类可读。
Jul, 2017
这篇论文是关于如何运用词义感知诱导方法在缺乏词汇资源的语言中初始开展词义消岐研究,并提出了一些有趣的研究重点。
Oct, 2013
本文提出了一种基于词汇知识的语境化嵌入模型用于词义消岐,将相关语义的词义和上下文靠近,将不相关的远离,用 Attract-Repel 目标函数和自训练目标函数对嵌入进行调整,实现了在知识为基础的词义消岐方面的最新前沿成果。
Apr, 2023
本文提出了一种基于 MetricWSD 的非参数的少样本学习方法,通过进行情节性训练,并学习计算给定单词的不同意义之间的距离,将高频词的学习度量空间转移到低频的单词中,从而避免了在自然语言处理中监督式全单词 WSD 的一个重要挑战中的数据不平衡问题。该方法在不依赖任何词汇资源的情况下,能够获得强大的性能,并通过联合 WSD 评估基准实现了 75.1 F1 得分的良好表现。
Apr, 2021
本研究提出一种新的上下文感知的无监督词义消歧方法,通过将上下文信息纳入相似度量计算过程中,有效地管理文本中的词义模糊,从而提高了词义消歧的准确性并超越了现有的多种技术。
May, 2023
本研究致力于提高利用词汇资源和神经网络的方法进行词义消歧(WSD)的性能。我们提出了基于 BERT 的 WSD 系统,并在 SemCor3.0 上对其进行了微调,实验结果表明,我们的方法优于现有的最先进系统。
Aug, 2019
通过引入注意力机制,本文提出一种新的词义消歧方法,将多种语言特征的多重注意力权重结合在一起,构建了一个更加灵活的编码器 - 解码器模型,从而在实现高准确率的同时,缩小了模型与人类专家之间的差距。
Sep, 2018