PropSegmEnt: 一个用于命题级别分割和蕴含识别的大规模语料库
将文本分成细粒度的含义单元对于广泛的自然语言处理应用非常重要,本文重点讨论了抽象命题分割的任务,并提出了评估指标和可扩展准确的命题分割模型,同时介绍了领域泛化方法,并分享了一个简单易用的 API。
Jun, 2024
本文提出了一种新的基于阈值的语义文本表示方法,并结合机器学习算法应用语义和词汇特征对文本 - 假设对进行分类,该技术有效地丰富了文本的语义信息,在文字蕴涵分类任务中在意义理解方面的表现明显优于已知方法
Oct, 2022
通过引入 Stanford 自然语言推理语料库,我们成功解决了机器学习研究在自然语言推理方面的巨大缺乏,该语料库是由人类按照基于图像字幕的新颖本体任务撰写的标记句子对,包含 570k 个句子对,是同类资源的两个量级以上,在规模方面取得了重大进展,这使得词汇分类器优于一些复杂的现有蕴含模型,并且让一种基于神经网络的模型在自然语言推理基准测试中首次表现亮眼。
Aug, 2015
提出了一个基于将文本转换为抽象意义表示(AMR)图的新型流水线,通过预训练的 AMR 解析器将 AMR 图转换为命题逻辑,并使用 SAT 求解器进行自动推理,引入了松弛方法以允许替换或遗忘某些命题。实验结果表明该流水线在四个 Recognizing Textual Entailment 数据集上表现良好。
May, 2024
研究了在信息检索中识别文本蕴含问题的模型,使用了多种变量的神经网络模型,提出了基本的蕴含证据集成模型并展示了其有效性,同时引入了一个基准数据集并在其上进行了实验,并应用该模型于多选题答案排序任务达到了最新的研究效果。
May, 2016
本文提出了一种采用文本蕴含来找到共享常识知识图谱节点之间的隐式蕴含关系的方法,以有效地增加相同概念类中节点之间连接的子图密度,从而提高 CSKG 完成任务的性能。
Feb, 2024
本研究通过比较语义结构来表示前提和假设之间的语义关系,使用可解释的度量标准计算假设是否是前提的语义子结构,并在三个英文基准测试中评估了使用语境化嵌入和语义图表达的价值,并发现它们提供了互补的信号,并可以在混合模型中一起利用。
Jun, 2023
本论文介绍了一种用于比较不同 NLP 系统语义理解能力的统一性评估框架 ——Recognizing Textual Entailment (RTE),并提供了评估 NLP 系统推理能力的不同方法的概述,重点介绍了 RTE 数据集的特点及其最新研究进展,提出了利用注重特定语言现象的新引入的 RTE 数据集来评估 NLP 系统的建议。
Oct, 2020
该论文定义了一项新的文本蕴含任务,要求对多个前提句子进行推断,提出了一个新的数据集来最小化平凡的词汇推理,强调对日常事件的知识,并为文本蕴含提出了一个更具挑战性的环境;同时评估了多种强力神经网络基线,并分析多个前提任务与标准文本含义的区别。
Oct, 2017
本文介绍了自然语言处理中的标注任务并定义了标签概念,在实体链接和信息流方面提出了一种新的方法,并通过熵计算信息损失,最终将其视为两个实体在图上路径的距离。
May, 2022