基于上下文的语义扩展
提出了一种全面利用文本上下文信息、增强建模能力和拓展训练数据的高效上下文感知论证结构模型 (ECASE),通过引入序列注意力模块和距离加权相似度损失来聚合上下文信息和论证性信息,同时通过随机屏蔽话语标记和句子来扩充训练数据,实现了在各个领域五个数据集上的最先进性能。
Oct, 2023
LLMs 在 NLP 任务中表现出令人印象深刻的零样本性能,但其基本分数方法存在限制,我们提出了一种基于常识增强得分和扩展答案空间的方法,它通过赋予单词的重要性权重来提高 LM 概率分数,该动态加权方法不仅能减少噪声,还能为模型提供隐含的常识知识,结合答案空间扩展,我们的方法在 5 个常识基准测试中超过了强基线方法,我们进一步证明了这两种方法的互补性和在使用较小的 LM 时特别有益。
Nov, 2023
本文介绍了语义扩展检索系统中影响最大的语义关联作用,并提出在准确性和噪音引入之间寻找最佳平衡的方案,最后通过构建自然语言处理系统并利用系统的多种知识资源进行评估。
Mar, 2022
本文提出了一种基于概率模型的搜索建议方法,使用新颖的分层递归编解码器架构,能够考虑任意长度的查询序列,实现上下文感知,解决数据稀疏问题,在下一个查询预测任务中优于现有上下文感知方法,并且可以用于许多其他应用。
Jul, 2015
本研究提出一种新的上下文感知的无监督词义消歧方法,通过将上下文信息纳入相似度量计算过程中,有效地管理文本中的词义模糊,从而提高了词义消歧的准确性并超越了现有的多种技术。
May, 2023
利用自动生成的自然语言定义,将上下文单词用法作为可解释的词和词义表示。使用 Flan-T5 语言模型生成每个用法的定义,从用法簇中选择最典型的定义作为词义标签,可在语义变化分析中进行应用。此外,上下文定义在 NLP 中的单词语境语义相似性判断中优于令牌或用法句子嵌入,是一种新的有前途的词汇表示类型。
May, 2023
本文提出一种基于三种不同上下文信号的种子引导主题发现方法,该方法结合了来自本地上下文的词嵌入,来自通用域训练的预先训练语言模型表示以及基于种子信息检索的主题指示句子,证明了三种类型的语境信息的价值和局限性在种子引导下的建模词语语义,并提出了一种迭代框架 SeedTopicMine,该框架通过集成排名过程逐步融合了它们的上下文信号,相较于现有的种子引导主题发现方法,提供更一致和准确的主题。
Dec, 2022
本文提出了一种基于语料库的集合扩展方法,通过选择干净的上下文特征计算实体分布相似度和基于去噪上下文特征的排序无监督集成方法,该方法在三个数据集上的实验证明是健壮的且优于之前的最新方法。
Oct, 2019
提出了一种基于符号知识图谱的预训练语言模型生成任务相关信息的 CommonSense Contextualizer (CoSe-Co) 模型,该模型结合句子作为输入文本的上下文信息,以构建一种新的数据集用于训练 CoSe-Co 模型,并在多项选择 QA 以及常识推理任务中展现出显著提高的性能
Jun, 2022
本研究提出了一种新的实体集扩展 (ESE) 范例,即独立于语料库的 ESE,并使用自回归语言模型自动生成高质量的上下文模式,通过 GAPA 框架扩展目标实体,并在三个广泛使用的数据集上进行了全面的实验和详细的分析,结果表明该方法非常有效。
Jul, 2022