使用 SememeWSD 和同义词集进行中文词义嵌入
本文提出一种基于 sense embeddings 方法的词义感知 (word sense induction) 算法,通过 Sense 聚类和 Contextual 向量来辨别多义词的词义,相对于传统基于分布式模型的方法,我们的算法可以更好地处理语义相似性,通过对 SemEval-2010 数据进行的实验表明,本算法的效果优于所有参赛者及最近的大部分最新方法。
Jun, 2016
本研究探讨了利用词义消歧算法扩大上下文范围提高神经机器翻译的效果,通过引入三种自适应聚类算法进行了验证并在 SemEval 数据上进行了评估,随后在一个最先进的 NMT 系统中联合学习单词向量和最佳 WSD 算法定义的词义向量,最终证明这种方法可以优于几个基准模型。
Oct, 2018
本篇论文提出了一种新的方法,基于监督式消歧,为每个单词建立多个嵌入向量,从而针对字面意思和文本语境对不同主题进行消歧,以及在神经依赖分析上具有更好的错误率表现。
Nov, 2015
本文提出了一种基于多语言词典建立知识和监督为基础的多语言词义消歧(MWSD)系统的方法,利用统一的语义表示,将多种语言的注释进行共同训练以解决 MWSD 的注释稀缺问题,并在 SemEval-13 和 SemEval-15 数据集上展示了该方法的有效性。
Oct, 2022
本文提出了一种基于词汇知识的语境化嵌入模型用于词义消岐,将相关语义的词义和上下文靠近,将不相关的远离,用 Attract-Repel 目标函数和自训练目标函数对嵌入进行调整,实现了在知识为基础的词义消岐方面的最新前沿成果。
Apr, 2023
我们开发了一种简单而有效的方法来学习单词意义嵌入。通过聚类相关单词的自我网络,我们的方法可以从现有的单词嵌入中引出一种意义库,并通过学习的意义向量标记上下文中的单词,从而产生了下游应用。实验表明,我们的方法的性能与最先进的无监督 WSD 系统相当。
Aug, 2017
本研究提出了一种基于预训练的词嵌入,利用完全无监督和无基于知识的方法诱导一个完整的词义库,并实现对 158 种语言中的单词进行上下文消歧,对于资源匮乏的语言特别有用。
Mar, 2020
本文提出使用 BERT 提取更好的词义多义词表征表示用于词义消歧 (WSD),并探索了几种 BERT 和分类器的组合方式。通过使用单一分类器来训练所有词语的语义定义,使模型能够消除未知的多义词。实验结果显示,我们的模型在标准的英语全词 WSD 评估中取得了最先进的结果。
Sep, 2019
本研究使用主题模型的形式设计了一种词义消歧系统,使其在上下文单词数线性增长的情况下扩展,该方法在 5 个英语全单词 WSD 数据集上进行的评估表明,其性能优于这一领域的当前最先进无监督知识为基础的 WSD 系统。
Jan, 2018
通过在现代监督式词义消歧模型中将语义特征引入分类器并考虑使用语义词典结构来增加训练数据,本文提出了一种有效的增强模型。通过研究不同类型的语义特征与本地上下文的交互作用,本文将所提出的模型扩展为一种新颖的多层架构,实验证明这种方法可以与现有的最新方法相比较。
Feb, 2024