基于多注意力机制的新型神经序列模型用于词义消歧
本文提出了一种基于多语言词典建立知识和监督为基础的多语言词义消歧(MWSD)系统的方法,利用统一的语义表示,将多种语言的注释进行共同训练以解决 MWSD 的注释稀缺问题,并在 SemEval-13 和 SemEval-15 数据集上展示了该方法的有效性。
Oct, 2022
本文研究了神经机器翻译中编码器 - 解码器注意机制的特点,发现当翻译含义模糊的词汇时,注意机制更关注上下文标记。但与其他名词相比,注意机制更容易将更多注意力分配给模糊的名词本身而不是上下文标记,因此得出结论:注意机制不是神经机器翻译模型用于词义消歧所使用的主要机制之一。实验结果表明,NMT 模型在编码器隐藏状态中学习编码所需的上下文信息,而用于 Transformer 模型的注意机制表现为前几层逐渐了解源和目标标记,而最后几层学习从相关但不对齐的上下文标记中提取特征信息。
Oct, 2018
本研究探讨了利用词义消歧算法扩大上下文范围提高神经机器翻译的效果,通过引入三种自适应聚类算法进行了验证并在 SemEval 数据上进行了评估,随后在一个最先进的 NMT 系统中联合学习单词向量和最佳 WSD 算法定义的词义向量,最终证明这种方法可以优于几个基准模型。
Oct, 2018
本研究使用主题模型的形式设计了一种词义消歧系统,使其在上下文单词数线性增长的情况下扩展,该方法在 5 个英语全单词 WSD 数据集上进行的评估表明,其性能优于这一领域的当前最先进无监督知识为基础的 WSD 系统。
Jan, 2018
该研究论文探讨自然语言处理领域中关于理解和解决语言中的歧义的技术,强调了多义性和同音异义性等语言现象的复杂性,以及它们对计算模型的影响。论文详细介绍了从深度学习技术到利用词汇资源和知识图谱(如 WordNet)的各种方法,重点研究了词义消歧(Word Sense Disambiguation)。它引入了词义扩展(word sense extension)和神经肌阵挛方法等最新方法,通过预测新的词义来提高消歧准确性。论文还讨论了生物医学消歧和语言特定优化等具体应用,并讨论了认知隐喻在话语分析中的重要性。研究还确定了该领域存在的持续挑战,例如词义注释语料库的稀缺性和非正式临床文本的复杂性。最后,论文提出了未来的研究方向,包括使用大型语言模型、视觉词义消歧和多语言词义消歧系统,强调了在处理自然语言处理中的词汇复杂性方面的持续演进。该研究论文突显了这一领域在使计算机更准确地理解语言方面的进展。
Mar, 2024
本文介绍了一种基于 QIP 模型的词义消歧方法,通过最大化目标函数中词义 - 单词相似性和词义 - 词义关联性来捕获目标词不同词义间的互动,以解决词义相互依赖导致的组合优化问题。
Jan, 2022
该研究提出了一个新颖的抽象式单文档文本摘要框架,融合了结构、语义和基于神经网络的方法,通过结合机器学习和基于知识的技术实现了一种统一的方法。实验证明了该框架在处理罕见和未登录词方面的显著改进,优于现有的深度学习技术。
Apr, 2024
本研究提出了一种基于预训练的词嵌入,利用完全无监督和无基于知识的方法诱导一个完整的词义库,并实现对 158 种语言中的单词进行上下文消歧,对于资源匮乏的语言特别有用。
Mar, 2020
本文提出使用 BERT 提取更好的词义多义词表征表示用于词义消歧 (WSD),并探索了几种 BERT 和分类器的组合方式。通过使用单一分类器来训练所有词语的语义定义,使模型能够消除未知的多义词。实验结果显示,我们的模型在标准的英语全词 WSD 评估中取得了最先进的结果。
Sep, 2019