- EQUATE:自然语言推理定量推理基准评估框架
EQUATE 是一种新的文本蕴含情景下的定量推理框架。我们使用 9 个现有的 NLI 模型对其进行基准测试,发现它们并未明确学习推理数量。我们提出一个基于符号计算的定量推理新基线 Q-REAS,相对于最佳执行的 NLI 模型,其在数值推理测 - 利用背景知识进行查询重写回答科学考试问题
本文针对 ARCChallenge 数据集的超越式难题提出了一种系统,该系统利用查询重写、背景知识和文本属于性,成功地提高了端到端 QA 任务的性能,并超越了几个强基线。
- EMNLP通过符号模型弥合神经蕴含中的知识差距
本文介绍了一种使用外部结构化知识库填补科学知识差距的模型,将标准神经模型与知识查找模块相结合,在使用科学知识库和文本先验信息验证子事实后,NSnet 模型在 SciTail 数据集上比基准模型性能提高了 5%。
- EMNLPTwoWingOS: 一种用于证明性主张验证的双翼优化策略
认定给定主张是否得到支持是一个基本的 NLP 问题,本文提出了一个名为 TwoWingOS 的系统,该系统通过联合处理适当的证据识别和支持或反驳该主张,将这两个方面结合起来进行了优化,实验结果表明其性能达到了最先进水平。
- COLING文本蕴含基础
本文研究了文本蕴涵中的语义关系 —— 通过可能世界来分析前提和假说之间的关系,同时结合图像进行多模态的分析,结果表明文本和视觉信息相结合可以更好地进行文本蕴涵,但当前多模态模型在 “接地” 方面还不够优化。
- ACL通过深入探究句间交互进行结束任务定向的文本蕴含
该研究针对 SciTail 自然蕴含挑战,提出了 DEISTE 方法,该方法通过卷积来探索句子之间的相互作用,提高文本蕴含的准确性,实验结果表现优于其他同类方法。
- 训练数据中的隐藏偏差对文本蕴涵识别性能的影响
本文提出了一种新的方法来研究用于识别文本蕴含任务的大型语料库的质量,通过基于统计假设检验的方法,测试了斯坦福自然语言推理(SNLI)语料库的可预测性,结果表明该库存在隐藏的偏差,并呈现了此偏差对于 RTE 的 NN 模型性能的影响。
- EMNLP生成自然语言对抗样本
通过黑盒基于人口的优化算法生成有迷惑性的语义和语法类似的对抗样本,不仅能提高情感分析和文本蕴涵模型的错误率,还能在 20 名人类注释者中得到 92.3% 的标签正确分类。进一步讨论了对抗训练作为一种防御的尝试,但未能产生改进,说明了这种对抗 - 多前提自然语言推理
该论文定义了一项新的文本蕴含任务,要求对多个前提句子进行推断,提出了一个新的数据集来最小化平凡的词汇推理,强调对日常事件的知识,并为文本蕴含提出了一个更具挑战性的环境;同时评估了多种强力神经网络基线,并分析多个前提任务与标准文本含义的区别。
- EMNLPLangPro: 自然语言定理证明器
LangPro 是一种自然语言自动证明器,使用基于专门设计的自然逻辑的分析表格方法,能够推导出前提和假设之间的语义关系,并在 FraCaS 和 SICK 文本蕴含数据集上达到了可与最先进技术相媲美的高结果。
- 跨语言推理的基准线和测试数据
本文提出将 SNLI 风格自然语言推断的研究推向多语言评估,为阿拉伯语,法语,西班牙语和俄语提供测试数据,并使用跨语言词嵌入和机器翻译构建基线系统,最终系统的平均准确率超过了 75%,并着重实现了多语言推断的进一步研究。
- ACL基于任务的短语对齐注意池化对句子匹配的贡献
本研究比较了两种典型的句子匹配任务:文本蕴含和答案选择,发现在文本蕴含中,弱短语对齐更为关键,而在答案选择中,强短语对齐更值得注意。我们提出了一种基于门控循环单元的架构,支持任意粒度的短语表征学习和特定任务的短语对齐的关注池化,实验结果证明 - 结构化注意力与合成的文本蕴含
本文研究了使用子树级别的 attention 模型进行文本蕴含任务,相比基于硬对齐和逻辑的传统模型具有更强鲁棒性和更高准确度,并且扩展 attention 模型到树节点可以更好地利用语法和递归信息提高准确度。
- 法律文本分析的词汇 - 形态学建模
本文提出了一种基于语言模型和机器学习方法,结合多种词汇和形态特征,用于解决法律问题和提供正确答案的 Legal Information Extraction/Entailment 问题,且无需大量训练数据和专业知识即可与最先进的法律信息检索 - COLING深度学习不同体系结构在双序列分类任务中的实证评估
本文通过 19 种不同的深度学习架构对自然语言处理中争议挖掘、文本蕴含和问答等多种问题进行了广泛的经验评估,特别针对如何处理上下文的方式进行了大量实证研究,对该类问题提供了深入的见解和结论,并为三项争议挖掘任务建立了深度学习基线。
- ACL双序列建模的神经联想记忆
该研究提出了一种基于关联记忆的新架构用于双序列建模,派生了用于增强通用循环神经网络(RNN)的循环关联记忆(AM-RNNs),扩展至同时操作两个 AM 的 Dual AM-RNN,并在文本推理方面取得了非常有竞争力的结果。
- 生成自然语言推断链
该论文提出了一项新的任务,即通过一个源句子生成一个蕴含的句子,使用带有关注力的 LSTM 模型对斯坦福自然语言推理语料库的蕴含对进行训练,在手动注释的测试集上,82% 的生成句子是正确的,还使用递归方法生成自然语言推理链,从而自动构造了一个 - ACL关于相关性和蕴含的句子嵌入联合学习
研究了在信息检索中识别文本蕴含问题的模型,使用了多种变量的神经网络模型,提出了基本的蕴含证据集成模型并展示了其有效性,同时引入了一个基准数据集并在其上进行了实验,并应用该模型于多选题答案排序任务达到了最新的研究效果。
- ACLABCNN:基于注意力机制的卷积神经网络用于建模句对
提出了一种基于注意力机制的卷积神经网络 (ABCNN),可用于模拟一对句子,将句子表示法相互考虑,从而获得 AS、PI 和 TE 任务上的最佳表现。
- 释义与文本蕴涵方法调查
文章总结了表述和文本蕴含两个领域的关键思想,包括识别、生成和提取方法,指出两个领域在自然语言处理应用方面的重要性。