本研究提出基于预训练语言模型的动态情境词向量,能够以语言和非语言环境为依据来表征单词的含义变化,并在四个英文数据集上做出定性和定量分析,以彰显其应用潜力。
Oct, 2020
本研究提出使用基于 CBOW 的训练方法进行文本嵌入的知识蒸馏,可以有效地提高自然语言处理应用程序的计算效率,同时优于从头开始训练的静态嵌入和以前提出的方法提炼的嵌入。此外,该方法还可以通过标准词汇评估任务公平比较上下文和静态嵌入。
Jun, 2021
本文介绍了一种将静态嵌入和上下文嵌入相结合的方法,通过提取 40 种语言的静态嵌入并使用 VecMap 校准来改善多语言表示,与此同时,应用新颖的持续预训练方法来进一步提高 XLM-R 的表示精度,并在多个复杂语义任务中展现出积极的效果。
Mar, 2022
我们提出了一种基于标准神经网络架构的简单,高效的令牌嵌入模型,并通过大量未注释的文本学习了令牌嵌入,评估它们作为基于少量注释的数据训练的词性标注器和依存分析器的特征,发现词嵌入在各种上下文窗口和训练集大小下都能一致优于基准预测模型。
Jun, 2017
本文对多语种命名实体识别和词性标注任务中预训练的 BERT、BPEmb 和 FastText 非上下文子词嵌入进行系统性评估,发现对于跨语言和任务而言,BERT、BPEmb 和字符表示的组合效果最佳,但在资源匮乏的情况下,非上下文子词嵌入的表现更加优秀。
Jun, 2019
本文通过经验分析,将提到的未知名称根据新奇性和域外评估进行分离,并证明了最新情境嵌入模型在发现前所未见的名称方面特别有益,尤其是在域外评估中。
Jan, 2020
本文通过对不同类型的上下文学习 skip-gram 词嵌入对广泛的内在和外在自然语言处理任务性能的首次全面评估,发现内在任务在特定类型的上下文和更高的维度方面更好,而对于大多数外在任务,需要更仔细的调整来找到最佳设置;另外,对于这些外在任务,一旦提高嵌入维度的好处大多用尽,使用不同上下文类型学习的简单词嵌入的串联,可以产生进一步的性能提升;此外,本文还提出了一种新的 skip-gram 模型变体,从替换词的加权上下文中学习单词嵌入。
Jan, 2016
本文通过对现有单词嵌入方法的特点和分类任务的分析,将单词嵌入方法划分为传统方法和基于神经网络的方法,揭示基于神经网络的单词表示方法相比于传统方法更能捕捉语言的语义和句法规律。实验验证了不同方法的性能差异。
Mar, 2023
该综述评估了现有的上下文嵌入模型,跨语言多语预训练,上下文嵌入在下游任务中的应用,模型压缩和分析。
Mar, 2020
用上下文化单词表示替代静态单词嵌入在许多自然语言处理任务中都有很大的提升。本文研究了从 ELmo 和 BERT 等模型生成的上下文化表示到底有多少有多少上下文性,是否针对每个单词有无限多个上下文相关的表示,还是本质上分配了一个有限数量的单词感觉表示。
Sep, 2019