学习将单词嵌入上下文以执行句法任务
本文关注于从多个预训练的监督模型中提取表示,以丰富单词嵌入具有任务和领域特定的知识,实验表明这样的监督嵌入对于低资源情况有所帮助,但对于任务和领域的性质不同的扩展程度不同,而我们公开了我们的代码。
Jun, 2019
本文提出一种方法,使用注意力分配从监督序列到序列的语音到单词识别模型中直接构建上下文语音嵌入。在一系列 16 个标准句子评估任务中,我们的嵌入表现与在语音转录中训练的 word2vec 模型相当。此外,我们在口语理解任务上评估这些嵌入并观察到,我们的嵌入匹配基于文本的嵌入在首先进行语音识别,然后从转录中构建单词嵌入的流水线中的性能。
Feb, 2019
使用语义组合性建模的透明、可解释和语言学动机策略,模拟词的上下文意义编码,并且与复杂神经结构下的黑盒模型相比,显示其与语言学动机模型在给定语义任务中的竞争力。
Dec, 2023
本文介绍了一种新颖的学习方法,用于关系分类的单词嵌入训练,并使用无标注语料库上的词汇关系特定特征预测名词对之间的单词,以将关系特定信息显式地纳入单词嵌入中。通过使用所学习的单词嵌入来构建特征向量,用于关系分类模型。在一个基于语义关系分类任务中,我们的方法表现显著优于基于之前介绍的单词嵌入方法的基准线,并与使用句法信息或手动构造的外部资源的先前最先进的模型相比,表现出了比较良好的结果。
Feb, 2015
本研究提出使用基于 CBOW 的训练方法进行文本嵌入的知识蒸馏,可以有效地提高自然语言处理应用程序的计算效率,同时优于从头开始训练的静态嵌入和以前提出的方法提炼的嵌入。此外,该方法还可以通过标准词汇评估任务公平比较上下文和静态嵌入。
Jun, 2021
揭示了上下文化单词嵌入的一些特征,包括上下文中单词意思的变化程度,单词在不同上下文中的一致性,以及单词位置偏差的影响,并提出一种减轻这种偏差的简单方法。
Aug, 2022
本文通过经验分析,将提到的未知名称根据新奇性和域外评估进行分离,并证明了最新情境嵌入模型在发现前所未见的名称方面特别有益,尤其是在域外评估中。
Jan, 2020
本文探讨了自然语言处理中的一项工作,基于 BERT 嵌入空间来评估英语单词的多义和同音词意义之间的相关性。发现使用 BERT 嵌入模型能够在意义表示上更加清晰地捕捉多义性和同音词意的潜在结构,具有潜在的应用价值。
Oct, 2020