AURA: 有理据中的自然语言推理与偶然性不确定性
研究如何使用先前经过训练的语言模型、神经知识模型和相关任务的远程监督等,通过训练生成解释原因的生成模型来推断自然语言解释。然而,结果表明,由于神经语言模型的基本限制,该模型生成的解释仅限于具有普遍性的陈述,而在进行推理的同时预测更新或其类型和生成理由是更具挑战性的,这是未来的重要方向。
Dec, 2020
本文提出基于两个辅助损失函数的方法,以更好地利用标签合理性远离的关键单词为目标 (PINs),并缓解非有用合理性的训练的冗余。两项代表性分类任务的实验表明,我们所提出的方法能够使分类模型有效地学习非完美 rationales 中关键的线索,同时保持将焦点扩展到其他重要未标记单词的能力,因此显著优于现有 methods。
Jun, 2021
通过评估条件性 V - 信息以及对容易被小型模型利用的敏感特征进行鲁棒性评估,我们提出了一种针对标签泄漏的强韧的自由文本基于理由的评估方法 RORA,它在评估人类编写、合成或模型生成的基于理由时提供了更可靠和准确的度量,尤其是对于标签泄漏展现出了鲁棒性。
Feb, 2024
本文介绍了首个以生成自然语言解释为中心的研究,该研究关注复杂的视觉推理任务,包括视觉常识推理、视觉文本蕴含和视觉问答。文章提出了 Rationale^VT Transformer,该模型通过结合预训练的语言模型、对象识别、基于视觉的语义框架和视觉常识图生成自由文本解释,实现了全面的图像理解,并且实验证明,自然语言解释是用于复杂视觉 - 文本推理任务的一种具有前景的研究方向。
Oct, 2020
通过实证分析人类解释的两个特点,即最大化理性监督准确性未必是提高模型准确性的最佳目标和人类理性是否提供足够信息以供模型进行预测,我们在此基础上提出了几种新的损失函数和学习策略,在三个包含有人类理性的数据集上进行评估,结果显示出了不断改进的基线,包括 MultiRC 上的 3% 精度提高。我们的研究强调了理解人类解释的特性,并据此进行模型训练的重要性。
Nov, 2021
本研究探讨了神经 NLP 模型的可解释性和鲁棒性之间的相互作用,试图通过有理化的过程来提高模型的鲁棒性,并针对五个不同的任务进行了实证评估。实验结果表明,理性模型有可能提高其鲁棒性,但它们在某些情况下会面临一定的挑战,并不总是表现得比无人为监督的模型更好。
Apr, 2022
本研究探索了利用解释来改善小型语言模型的 few-shot 自我合理性。我们提出了一种新方法 Zero-shot Augmentation of Rationale-Answer pairs (ZARA),通过将可能性判断问题转换为自然语言推理,自动构建了伪平行数据来进行自我训练。实验结果表明,ZARA 在 FEB 基准测试中实现了 SOTA 性能,包括任务准确性和解释度量。此外,我们进行了人类和定量评估,验证了 ZARA 自动识别合理和准确的理由 - 答案对的能力。
May, 2023
在提供足够解释性上下文的情况下,较小的语言模型在挑战性的问答任务中表现出强大的推理能力,而问题在训练中是未见过的。我们评估了两种进一步改进这一设置的方法,具体为使用理由排名模型对生成的合理和真实合理性进行评分并使用得分来从知识源中生成组合上下文,以及通过训练较小的推理模型来利用长文本序列中的相关信息。普遍发现,两种方法都有效,但 RATD 方法更容易应用并在我们关注的未见设置中产生最佳结果。
Aug, 2023
通过提取文本来生成短而连贯的理由 —— 根据规则确保足以做出准确预测的 —— 以代替不带理由的预测,该方法结合了生成器(分配文本碎片的候选理由)和编码器(用于预测)。从未给予判据,而是让模型符合对规则的要求。本文还在多方面情感分析和问题检索任务中成功验证了此方法。
Jun, 2016