本研究提出了一种名为 EGT2 的两级方法,通过识别由类型 CCG 解析谓词形成的模板句子之间的可能文本蕴含关系来学习局部蕴含关系,其依赖于三种新颖的软传递性约束来考虑蕴含结构中的逻辑传递性,实验证明此方法可以很好地模拟蕴含图中的传递性,从而减轻了蕴涵结构稀疏的问题,并显著提高了当前最先进方法的表现。
Apr, 2022
本文提出了一种名为 Typed Predicate-Entailment Graph Generator (TP-EGG) 的多阶段方法,利用生成模型,不需要精心准备的语料库,发现并构建了谓词之间的蕴含关系,可以用于自然语言理解中的推理任务。
Jun, 2023
本研究介绍了一种基于无监督学习的多元蕴含图方法,用来理解自然语言断言之间的关系,并在微观语义问答任务中展示了其性能。结果表明,多元蕴含图在细粒度语义问题上比双向相似性更有帮助,并且跨语言价位的证据对于回答问题比仅使用相同语言价证据更加有效。
Apr, 2021
通过语义图平滑,在经验上探索一种无监督学习更判别句子表示方法的方法。利用预训练模型得到的句子嵌入来提高文本聚类和分类任务的结果。经验证,我们的方法在八个基准测试中表现出一致的改进,展示了语义图平滑在改进句子嵌入用于监督和无监督的文档分类任务中的潜力。
Feb, 2024
本文提出了一种采用文本蕴含来找到共享常识知识图谱节点之间的隐式蕴含关系的方法,以有效地增加相同概念类中节点之间连接的子图密度,从而提高 CSKG 完成任务的性能。
本文提出了一种利用预训练语言模型来生成负样本的方法,该方法利用实体之间的距离通过它们的文本信息形成邻域集群,以得到符号实体的表示形式,有效地应用于基准知识图谱的链接预测任务。
Mar, 2022
本文探讨了使用 Gricean 数据训练语言模型,能够推断出句子之间的蕴含关系,并揭示了从无标签语言数据中提取语义信息的潜在框架。
Sep, 2022
在语言建模领域中,我们探寻了多种技术的变体或极限,验证单一技术与多种技术的相互作用,将所有技术组合应用在一起,较标准的 Katz 平滑 3 元语言建模方法,我们取得了 38% 至 50% 的困惑度减少,Word 错误率降低 8.9%。
Aug, 2001
本文介绍了一种使用外部结构化知识库填补科学知识差距的模型,将标准神经模型与知识查找模块相结合,在使用科学知识库和文本先验信息验证子事实后,NSnet 模型在 SciTail 数据集上比基准模型性能提高了 5%。
Aug, 2018
扩展基于类别、组成和分布的语义模型,通过将单词表示扩展为概率分布,定义对词汇蕴涵的对称和非对称相似度度量,利用量子变体对 von Neumann 熵进行度量。通过单词表示的组合映射和单词之间的蕴涵关系,提供了一种获取句子水平上的因果关系的方法。
Jun, 2015