令您的决策有说服力!一个统一的两阶段框架:自我归属和决策
我们提出了一个基于假设的统计框架,使用贝叶斯网络将任务的内部状态与模板翻译成自然语言,然后将这些解释与 LLM 生成的自由文本解释进行比较,以判断 LLM 和贝叶斯网络的决策过程的相似性,结果显示贝叶斯网络模型与 GPT-3.5 并没有很强的相似性,进一步工作可以通过该框架更好地近似 LLM 的决策。
Feb, 2024
近年来,自动规划(AP)和强化学习(RL)的整合引起了广泛关注。为了实现这种整合,我们试图提供一个适用于从传统规划到深度强化学习的任何方法的顺序决策制定(SDM)的通用框架,该框架借鉴了概率论和贝叶斯推断的概念。我们用训练和测试的马尔可夫决策过程(MDPs)集合来定义 SDM 任务,以考虑泛化性。我们提供了一个 SDM 的通用算法,并推测每个 SDM 方法都基于它。根据该算法,每个 SDM 算法可以被看作是通过利用可用的任务知识来迭代改进其解决方案估计的过程。最后,我们推导出一组用于计算 SDM 任务和方法的有趣属性的公式和算法,从而使得它们的经验评估和比较成为可能。
Oct, 2023
介绍了一种自我合理化的框架 RExC,旨在提供两种互补类型的解释(NLE 和提取合理),并将其与背景知识结合起来,从而达到了任务最新水平的性能,并大幅度领先于现有模型,同时进行干扰分析表明,解释与预测之间存在高度的关联性。
Jun, 2021
通过建立自我激励学习框架,根据正确性的内在排序,依据奖励模型训练并通过强化学习优化推理能力,本研究的实验证据表明其方法显著提升了模型的推理能力,在部分数据集中甚至超过了 text-davinci-002 模型。
Apr, 2024
本文认为,采用学习科学已有的实践经验,有助于为算法决策系统提供更好的解释。本文简要介绍了解释 ADM 系统的重要性,概述了改进解释的其他学科方法,并展示了我们采用 “六个理解层面” 框架的定性任务研究的结果。最后,我们提出了问题,引导未来的研究如何利用跨学科方法。
May, 2023
深度神经模型在自然语言处理中变得越来越复杂且难以解释,因此解释它们的必要性也越来越大。本文提出了一个正式框架来支持对解释的系统评估,并提供了适用于不同结构的解释的示例,重点是自动事实验证任务。
Mar, 2024
利用自训练语言模型进行多任务教师 - 学生框架,在有限的任务特定标签和理由下,通过精心选择样本学习信息伪标签示例以及明确合理化预测的特征,显著提高了神经模型的性能,特别在低资源环境中表现出有效性。
Sep, 2021
我们提出了一种名为 REFER 的框架,利用可微分的 rationale extractor 来通过在训练过程中使用人工标注的重点提取训练任务模型和 rationale extractor,从而在忠实度、可信度和下游任务准确率方面显著提升性能。
Oct, 2023