利用 BERT 进行词义消歧
本研究致力于提高利用词汇资源和神经网络的方法进行词义消歧(WSD)的性能。我们提出了基于 BERT 的 WSD 系统,并在 SemCor3.0 上对其进行了微调,实验结果表明,我们的方法优于现有的最先进系统。
Aug, 2019
本文对 BERT 模型在词汇歧义方面的能力及其潜在局限性进行了深入的定量和定性分析。作者发现,BERT 可以准确地捕捉高级别的意义区别,但对于具有限定条件的名词消歧问题,处理仍存在很多挑战。作者还在两种主要的基于语言模型的 WSD 策略(即微调和特征提取)之间进行了深入比较,并发现后一种方法更为稳健。
Aug, 2020
本文提出了一种基于多语言词典建立知识和监督为基础的多语言词义消歧(MWSD)系统的方法,利用统一的语义表示,将多种语言的注释进行共同训练以解决 MWSD 的注释稀缺问题,并在 SemEval-13 和 SemEval-15 数据集上展示了该方法的有效性。
Oct, 2022
本研究将词义消歧问题作为相关性排序任务,利用数据增强技术和 BERT 等预备语言模型完成域适应学习和迁移学习,在英文全词基准数据集上实现了最新成果。
Sep, 2020
该研究论文探讨自然语言处理领域中关于理解和解决语言中的歧义的技术,强调了多义性和同音异义性等语言现象的复杂性,以及它们对计算模型的影响。论文详细介绍了从深度学习技术到利用词汇资源和知识图谱(如 WordNet)的各种方法,重点研究了词义消歧(Word Sense Disambiguation)。它引入了词义扩展(word sense extension)和神经肌阵挛方法等最新方法,通过预测新的词义来提高消歧准确性。论文还讨论了生物医学消歧和语言特定优化等具体应用,并讨论了认知隐喻在话语分析中的重要性。研究还确定了该领域存在的持续挑战,例如词义注释语料库的稀缺性和非正式临床文本的复杂性。最后,论文提出了未来的研究方向,包括使用大型语言模型、视觉词义消歧和多语言词义消歧系统,强调了在处理自然语言处理中的词汇复杂性方面的持续演进。该研究论文突显了这一领域在使计算机更准确地理解语言方面的进展。
Mar, 2024
本研究使用主题模型的形式设计了一种词义消歧系统,使其在上下文单词数线性增长的情况下扩展,该方法在 5 个英语全单词 WSD 数据集上进行的评估表明,其性能优于这一领域的当前最先进无监督知识为基础的 WSD 系统。
Jan, 2018
通过引入注意力机制,本文提出一种新的词义消歧方法,将多种语言特征的多重注意力权重结合在一起,构建了一个更加灵活的编码器 - 解码器模型,从而在实现高准确率的同时,缩小了模型与人类专家之间的差距。
Sep, 2018
本文中,我们使用 Bi-encoder 模型训练了一个过滤多词表达式候选人的模型,该模型使用锁定和上下文信息。我们在 DiMSUM 数据集上实现了最优结果,在 PARSEME 1.1 英语数据集上使用此方法获得了有竞争力的结果。同时,我们还尝试使用 Poly-encoder 模型对 MWE 进行识别和 WSD,并引入了一个修改的 Poly-encoder 结构,在这些任务上表现优于标准 Poly-encoder。
Mar, 2023
本研究探讨了利用词义消歧算法扩大上下文范围提高神经机器翻译的效果,通过引入三种自适应聚类算法进行了验证并在 SemEval 数据上进行了评估,随后在一个最先进的 NMT 系统中联合学习单词向量和最佳 WSD 算法定义的词义向量,最终证明这种方法可以优于几个基准模型。
Oct, 2018