双师自学习的少样本理由生成
利用自训练语言模型进行多任务教师 - 学生框架,在有限的任务特定标签和理由下,通过精心选择样本学习信息伪标签示例以及明确合理化预测的特征,显著提高了神经模型的性能,特别在低资源环境中表现出有效性。
Sep, 2021
本研究探索了利用解释来改善小型语言模型的 few-shot 自我合理性。我们提出了一种新方法 Zero-shot Augmentation of Rationale-Answer pairs (ZARA),通过将可能性判断问题转换为自然语言推理,自动构建了伪平行数据来进行自我训练。实验结果表明,ZARA 在 FEB 基准测试中实现了 SOTA 性能,包括任务准确性和解释度量。此外,我们进行了人类和定量评估,验证了 ZARA 自动识别合理和准确的理由 - 答案对的能力。
May, 2023
本文介绍了一种适用于 NLP 系统的自我合理化模型,并通过使用 FEB 数据集探索了几种自然语言提示方法和缩放模型大小的方法,以达到在少量示例下进行自我合理化的目的,但该任务的合理性仍有改进的空间。
Nov, 2021
通过建立自我激励学习框架,根据正确性的内在排序,依据奖励模型训练并通过强化学习优化推理能力,本研究的实验证据表明其方法显著提升了模型的推理能力,在部分数据集中甚至超过了 text-davinci-002 模型。
Apr, 2024
研究如何使用先前经过训练的语言模型、神经知识模型和相关任务的远程监督等,通过训练生成解释原因的生成模型来推断自然语言解释。然而,结果表明,由于神经语言模型的基本限制,该模型生成的解释仅限于具有普遍性的陈述,而在进行推理的同时预测更新或其类型和生成理由是更具挑战性的,这是未来的重要方向。
Dec, 2020
本文介绍了一种新颖的方法,可以将 LLMs 高效地提炼成更小的、面向特定应用的模型,显著降低运营成本和人工劳动。该方法利用 LLMs 的推理能力为无标签数据生成标签和自然语言解释,从而在有限数据和计算资源情况下增强模型的微调和提炼效果。其中关键贡献包括使用零样本提示获取教师模型的解释,减少手工制作的小样本示例的需求,并降低令牌数,这直接转化为主要技术公司 LLM API 的按令牌计费模式下的成本节约。此外,本文还研究了解释特性对提炼效率的影响,并证明了即使在整个数据集上未应用理由增强时也几乎不会导致性能损失,从而进一步减少了令牌数量。这项研究是朝向最小化人工干预、高效训练特定任务模型的一步,提供了大幅降低成本并保持甚至增强性能的可能性。
Mar, 2024
为了解决深度学习模型输出不可解释的问题,我们提出了一种基于无监督选择性理性化的模型,在理性生成器和预测器上联合训练,有效限制了不合理理由产生,并在电影评论数据集上得到了明显的理性可信度和任务准确性提升。
May, 2023
本文介绍一种新的基于 “Markup-and-Mask” 技术的生成问答系统解释性解释的方法,并提出了一种使用预训练语言模型自动生成标注数据进行端到端学习的方式来训练缩小版的模型的方法,同时结合了自由文本与摘录型解释的特点,进一步提高了问答系统的可信度。
Oct, 2022
大型语言模型能够在缺乏任务特定监督的情况下生成流畅的文本,但其在具有知识密集型任务中提供有根据的解释的能力仍未得到充分探索。我们通过使用专家编写的几个样本,以少量样本的方式生成基于知识的解释来解决这一问题。通过研究发现,众包工作者更喜欢基于知识的解释,因为它们具有实际性、充分性和全面的反驳。虽然大型语言模型生成的解释更受欢迎,但需要进一步提高简明性和新颖性。另外,我们还展示了错误模型预测的解释如何削弱人类对大型语言模型生成的解释的信任。基于这些观察的动机,我们创建了一个两阶段的流程,在生成解释之前审查任务预测并消除潜在的错误决策,以实现可信赖的解释生成。
Nov, 2023