基于上下文感知常识知识模型的隐性前提生成
该论文定义了一项新的文本蕴含任务,要求对多个前提句子进行推断,提出了一个新的数据集来最小化平凡的词汇推理,强调对日常事件的知识,并为文本蕴含提出了一个更具挑战性的环境;同时评估了多种强力神经网络基线,并分析多个前提任务与标准文本含义的区别。
Oct, 2017
该研究介绍了两个新学习者论证任务:识别论证中的缺陷(省略式推理检测)和填补这些缺陷(省略式推理重建)。通过从学习者的论证文本中删除对于论证和质量至关重要的论证单元(ADUs)的方法,我们创建了一个用于省略式推理检测和重建的语料库,以便帮助学习者提高其论证质量。同时,我们验证了所提出的语料库创建过程导致了所需的质量降低,并得到了与学习者撰写的论证类似自然的论证结果。最后,基线方法的省略式推理检测和重建表明了该语料库的实用性。
Oct, 2023
我们提出了一种任务,即基于语篇的通识推理,在保持与叙述其余部分的一致性的同时,在预定义的维度上生成常识推断。使用可用的句级注释,我们有效且自动地构建了一个远程监督语料库,使用该语料库,我们训练了 PARA-COMET,这是一种基于语篇的模型,它捕获关于先前世界知识的语义知识和涉及如何将当前事件与叙述中先前和未来事件相关联的情节知识。我们的结果表明,PARA-COMET 在生成既连贯又新颖的推断方面优于句级基准。
Oct, 2020
提出了一个处理模糊的假设的新系统,使用自然语言生成模型来从一个前提中推出另一个前提并以双向的方式搜索。 使用回路验证程序过滤质量不佳的生成来确保正确性。 该系统在修改后的 EntailmentBank 数据集和名为 “Everyday Norms:Why Not?“的新数据集上表现出可以恢复跨领域和非领域的前提的能力。
Nov, 2022
通过生成包含多前提蕴含步骤(即知识事实到问题答案的中间推理结论)的蕴含树形式的解释,本研究提出第一个含有多步蕴含树的数据集 ENTAILMENTBANK,用于培训模型执行三项解释任务。结果表明,当输入包含相关句子时(例如,任务(a)的 35% 结果完美),强大的语言模型能部分地解决这些任务,并具有推广到其他领域的迹象。
Apr, 2021
本文针对隐含的语篇关系进行了意义预测,利用预训练的句子嵌入作为神经网络基础表示,分别使用监督学习和预训练编码技术 - SkipThought,Sent2vec 和 Infersent 进行实验,并证实两种方法可以相互补充,结合模型可以显著提高模型性能。
Oct, 2022
通过收集社会科学顶级期刊中最近发表的 50 篇论文构建的第一个自然语言处理数据集,该数据集可以解决假设归纳领域中以往局限于特定领域和常识知识的问题,旨在开发一个系统,仅凭一堆原始网页文集就可以自动生成有效、新颖且对社会科学研究人员有帮助的假设。基于多模块框架和三种不同的反馈机制,该框架在 GPT-4 和社会科学专家评估方面表现出较高的性能。
Sep, 2023
本文利用 Transformer 模型及多种技巧,解决常识推理领域中缺乏可控性、训练时缺乏常识知识、推理出假命题等问题。通过引入 “提示” 技术控制推理,使用多个常识知识库进行联合推理,并运用 GAN 框架生成同时可信可控的常识命题。
Feb, 2023