本研究提出了一种基于预训练的词嵌入,利用完全无监督和无基于知识的方法诱导一个完整的词义库,并实现对 158 种语言中的单词进行上下文消歧,对于资源匮乏的语言特别有用。
Mar, 2020
本研究提出一种新颖的在线算法,通过最小化上下文嵌入组内的距离来学习单词嵌入中每个维度的本质,以三种最先进的基于神经网络的语言模型 Flair、ELMo 和 BERT 生成上下文嵌入,为同一词汇类型生成不同的嵌入,这些嵌入由 SemCor 数据集手动标注的意义进行分组,结论表明本文提出的算法不会损伤性能,甚至能提高 3%,可以用于未来关于上下文嵌入可解释性的研究。
Nov, 2019
本篇论文提出了一种新的方法,基于监督式消歧,为每个单词建立多个嵌入向量,从而针对字面意思和文本语境对不同主题进行消歧,以及在神经依赖分析上具有更好的错误率表现。
Nov, 2015
该研究介绍了如何使用神经语言模型,通过从所有层收集信息生成感知嵌入,并展示了这些嵌入的多种领域应用,特别是在词义消歧任务中,提出的方法通过对 14 个神经语言模型变体的分析,在准确性和任务多样性方面实现了改进。
May, 2021
该文提出了一种基于主题模型的 skip-gram 方法来学习多原型词嵌入,同时介绍了一种修剪嵌入的方法,用于代表每个主题中每个单词的概率表示, 并将我们的嵌入用于展示它们可以强烈地捕获上下文和词汇相似性,并优于各种最先进的实现。
Sep, 2019
本文提出两种改进的解决方案,通过将上下文多义词嵌入视为噪声(去除)和通过生成聚类级别的平均锚嵌入以替换上下文多义词嵌入,提高了跨语言语境下上下文词嵌入对齐的微观性能,同时不会损害双语词汇表归纳任务的宏观性能;对于无监督对齐,我们的方法在双语词汇表归纳任务中显著提高了 10 多分。
本文提出了一种基于词汇知识的语境化嵌入模型用于词义消岐,将相关语义的词义和上下文靠近,将不相关的远离,用 Attract-Repel 目标函数和自训练目标函数对嵌入进行调整,实现了在知识为基础的词义消岐方面的最新前沿成果。
Apr, 2023
本文提出一种基于预训练掩码语言模型(MLMs)的词义归纳方法,可以扩展到大词汇和大语料库,其结果是一个按语料库导出的意义清单进行感知标记的语料库,每个意义将与指示性单词相关联,通过在此感知标记语料库上训练静态单词嵌入算法,我们获得了优质的静态感知嵌入。这种数据驱动算法的本质可用于感知特定于语料库的感觉,正如我们在科学领域的案例研究中所证明的那样。
Oct, 2021
本文提出了一种名为 SenseBERT 的神经语言模型,通过利用单词意义级别直接进行弱监督,预测掩码单词及其 WordNet 超级意义,达到了词汇语义级别的语言模型,实验结果显示,在 SemEval Word Sense Disambiguation 任务和单词上下文任务中,SenseBERT 取得了显著的改进和最新的成果。
Aug, 2019
本文对 BERT 模型在词汇歧义方面的能力及其潜在局限性进行了深入的定量和定性分析。作者发现,BERT 可以准确地捕捉高级别的意义区别,但对于具有限定条件的名词消歧问题,处理仍存在很多挑战。作者还在两种主要的基于语言模型的 WSD 策略(即微调和特征提取)之间进行了深入比较,并发现后一种方法更为稳健。
Aug, 2020