利用变分语义记忆的元学习进行词义消歧
本文提出了一个基于元学习的少样本词义消歧框架,用于从极少数标记实例中学习消除未见过单词的歧义。与传统的 Meta-learning 测试方式不同,本研究还探讨了在应对高度不平衡的多类别问题时,几个流行元学习方法在 WSD 任务中的优缺点。
Apr, 2020
本文提出了一种基于 MetricWSD 的非参数的少样本学习方法,通过进行情节性训练,并学习计算给定单词的不同意义之间的距离,将高频词的学习度量空间转移到低频的单词中,从而避免了在自然语言处理中监督式全单词 WSD 的一个重要挑战中的数据不平衡问题。该方法在不依赖任何词汇资源的情况下,能够获得强大的性能,并通过联合 WSD 评估基准实现了 75.1 F1 得分的良好表现。
Apr, 2021
本文介绍将变分语义记忆引入元学习中,以获取长期知识进行少样本学习,从而形成一个新的长期记忆模块,具有适应个人任务的原则性召回和更新机制,从而为少样本识别带来了巨大的益处。
Oct, 2020
本文提出了一种基于多语言词典建立知识和监督为基础的多语言词义消歧(MWSD)系统的方法,利用统一的语义表示,将多种语言的注释进行共同训练以解决 MWSD 的注释稀缺问题,并在 SemEval-13 和 SemEval-15 数据集上展示了该方法的有效性。
Oct, 2022
提出两种不同的方法来压缩 Princeton WordNet 的词义词汇,以及基于预训练的 BERT 词向量建立的 WSD 系统,在不需要额外训练数据的情况下大幅减小了神经 WSD 模型的大小,并在所有 WSD 评估任务上显著优于现有技术水平。
May, 2019
本研究探讨了利用词义消歧算法扩大上下文范围提高神经机器翻译的效果,通过引入三种自适应聚类算法进行了验证并在 SemEval 数据上进行了评估,随后在一个最先进的 NMT 系统中联合学习单词向量和最佳 WSD 算法定义的词义向量,最终证明这种方法可以优于几个基准模型。
Oct, 2018
本文提出了一种基于词汇知识的语境化嵌入模型用于词义消岐,将相关语义的词义和上下文靠近,将不相关的远离,用 Attract-Repel 目标函数和自训练目标函数对嵌入进行调整,实现了在知识为基础的词义消岐方面的最新前沿成果。
Apr, 2023
通过在现代监督式词义消歧模型中将语义特征引入分类器并考虑使用语义词典结构来增加训练数据,本文提出了一种有效的增强模型。通过研究不同类型的语义特征与本地上下文的交互作用,本文将所提出的模型扩展为一种新颖的多层架构,实验证明这种方法可以与现有的最新方法相比较。
Feb, 2024
本文提出了一种新方法解决词义消歧中受语料库覆盖率和效率限制的问题,利用 WordNet 中的知识以及 Synsets 之间的上下位关系来减少所需的不同词义标记的数量,从而在大多数 WSD 评估任务上实现最先进的结果,在不使用附加训练数据的情况下提高督导系统的覆盖范围、减少训练时间和模型的大小,此方法结合集成技术和 WordNet Gloss Tagged 作为训练语料时可以得到显着的超越当前最先进状态的结果。
Nov, 2018
本研究使用主题模型的形式设计了一种词义消歧系统,使其在上下文单词数线性增长的情况下扩展,该方法在 5 个英语全单词 WSD 数据集上进行的评估表明,其性能优于这一领域的当前最先进无监督知识为基础的 WSD 系统。
Jan, 2018