多重奖励提炼的个性化自盈利者设计
本研究探索了利用解释来改善小型语言模型的 few-shot 自我合理性。我们提出了一种新方法 Zero-shot Augmentation of Rationale-Answer pairs (ZARA),通过将可能性判断问题转换为自然语言推理,自动构建了伪平行数据来进行自我训练。实验结果表明,ZARA 在 FEB 基准测试中实现了 SOTA 性能,包括任务准确性和解释度量。此外,我们进行了人类和定量评估,验证了 ZARA 自动识别合理和准确的理由 - 答案对的能力。
May, 2023
通过建立自我激励学习框架,根据正确性的内在排序,依据奖励模型训练并通过强化学习优化推理能力,本研究的实验证据表明其方法显著提升了模型的推理能力,在部分数据集中甚至超过了 text-davinci-002 模型。
Apr, 2024
通过自主探索(Self-Explore)的方法,研究自动增强规划模型(LLMs)的推理能力,并与监督式微调相比,在 GSM8K 和 MATH 测试集上分别平均取得 11.57%和 2.89%的改进。
Apr, 2024
提出了一种知识蒸馏方法以学习从比自身大几个数量级的大型语言模型中生成一致合理的解释的小型自洽 Chain-of-Thought(CoT)模型,它使用教师模型生成的合理解释来学习学生模型,并使用对抗性约束来保证学生模型保持一致性和反事实推理,实验结果表明,这种方法可以更好地生成有利于提高性能的 CoT 解释。
May, 2023
通过对比性理由蒸馏,我们提出了一种质量引导的方法用于推理能力学习,能够从大型语言模型中提取正面和负面的知识理由,并通过在线更新的判别器优化训练过程,得到更高质量的可解释性底层语言模型。
May, 2024
本文介绍了一种自我训练方法,利用有标记和无标记数据进一步改进少样本模型的效果,并提出了一种新的损失函数 Masked Label Regularization(MLR),以促进解释与预测标签之间的紧密联系。在三个公共数据集上的评估表明,所提出的方法在建模任务标签和生成忠实的解释方面是有效的。
Jun, 2023
大型语言模型可生成可用理性,但其人类实用性不佳,因此我们提出了一个自动化评分系统 GEN-U 来衡量基于无人参与的人类实用性的帮助性,并最大限度地保持任务绩效。
May, 2023
本论文研究以人类编写的基准解释为训练数据的自我合理化模型,探讨其对于解决任务的正确性、易解释性和鲁棒性等方面的影响。结果表明,在低资源环境下,自我合理化模型有可能提高模型的鲁棒性;但在高资源环境下,模型的鲁棒性有所下降。
Oct, 2022
分析了使用大型语言模型生成的自由文本解释对于主观答案的重要性,并评估了九个开源语言模型生成的自由文本解释的说服力,结果显示主观排序任务中 Llama2-70B-chat 模型的解释具有高度说服力,超过了 GPT 模型,并发现通过引导或自我改进可以提高解释的说服力。
Jun, 2024
大型语言模型能够在缺乏任务特定监督的情况下生成流畅的文本,但其在具有知识密集型任务中提供有根据的解释的能力仍未得到充分探索。我们通过使用专家编写的几个样本,以少量样本的方式生成基于知识的解释来解决这一问题。通过研究发现,众包工作者更喜欢基于知识的解释,因为它们具有实际性、充分性和全面的反驳。虽然大型语言模型生成的解释更受欢迎,但需要进一步提高简明性和新颖性。另外,我们还展示了错误模型预测的解释如何削弱人类对大型语言模型生成的解释的信任。基于这些观察的动机,我们创建了一个两阶段的流程,在生成解释之前审查任务预测并消除潜在的错误决策,以实现可信赖的解释生成。
Nov, 2023