本研究详细介绍了一个基于丰富的单词嵌入的组成分布式框架,旨在促进句子中单词之间的交互,并使用环境中的句法信息来增强向量。研究结果表明,该框架在 MSRPar 任务上取得了具有代表性的结果。
Aug, 2015
本文探讨了自然语言处理中的一项工作,基于 BERT 嵌入空间来评估英语单词的多义和同音词意义之间的相关性。发现使用 BERT 嵌入模型能够在意义表示上更加清晰地捕捉多义性和同音词意的潜在结构,具有潜在的应用价值。
Oct, 2020
我们提出了一种基于标准神经网络架构的简单,高效的令牌嵌入模型,并通过大量未注释的文本学习了令牌嵌入,评估它们作为基于少量注释的数据训练的词性标注器和依存分析器的特征,发现词嵌入在各种上下文窗口和训练集大小下都能一致优于基准预测模型。
Jun, 2017
该研究介绍了如何使用神经语言模型,通过从所有层收集信息生成感知嵌入,并展示了这些嵌入的多种领域应用,特别是在词义消歧任务中,提出的方法通过对 14 个神经语言模型变体的分析,在准确性和任务多样性方面实现了改进。
May, 2021
本文利用传统技术和转换器技术对美国专利短语进行语义相似性分析和建模,并对 Decoding Enhanced BERT(DeBERTa)的四种不同变体进行实验,在此基础上通过 K 次交叉验证提高性能,实验结果表明我们的方法比传统技术更具有优越性,平均 Pearson 相关系数为 0.79。
Jul, 2022
揭示了上下文化单词嵌入的一些特征,包括上下文中单词意思的变化程度,单词在不同上下文中的一致性,以及单词位置偏差的影响,并提出一种减轻这种偏差的简单方法。
Aug, 2022
该研究提出了一种两阶段的方法,使用上下文中单词意义的注意力来提取一个单词的多重意义,并将其传递到 skip-gram 模型中,以生成多重意义的嵌入,这比现有技术表现更好,可应用于主题建模。
Apr, 2023
transformer architecture offers a novel perspective on the relationship between context and meaning, positioning itself within the contextualism and polysemy debates.
Apr, 2024
该论文研究了利用大规模神经语言模型生成的上下文词表示对于自然语言处理任务的有效性及其可迁移性。结果表明,虽然这些表示在许多任务中表现出色,但对于需要细粒度语言知识的任务(如连词识别)而言,它们还不能胜任。此外,作者还比较了不同预训练和监督预训练方法对于任务训练的影响。
Mar, 2019
我们提出了一种新的上下文词表示模型,由纯句法和概率角度设计。我们的模型类似于 transformers,能够竞争性地在小到中等规模的数据集上执行任务,希望能够弥补传统句法和概率方法与先进神经方法之间的差距,并激发未来更多基于语言学原则的神经方法的启发。
Nov, 2023