通过正确实例化进行无监督解释生成
提出了一种基于 GPT-3 生成自然语言解释并使用 RoBERTa 进行微调的两阶段 Few-shot 学习框架 FLamE,可以显著提高自然语言推理的准确性,但生成的解释并不能很好地说明分类决策,并指出标签特定的提示在生成的解释中起着重要作用。
Jun, 2023
本文提出了基于解释的微调作为一种缓解大型语言模型依赖错误相关的新颖通用方法,并在人工构建的训练集上微调模型,使其更加强壮。与标准微调不同,我们不仅仅针对输入进行预测,还微调模型以生成支持其答案的自由文本解释。与标准微调相比,我们的方法在四个分类任务中使模型对伪线索具有明显更强的稳健性。此外,我们的方法同样适用于由模型生成的解释,暗示了其在更多数据集上的适用性。
May, 2023
通过应用大规模多任务生成 Transformer 模型的最新进展,我们提出了一种新的 VL-NLE 方法,其提供人类更容易理解的解释,并优于当前技术水平。同时,我们还探讨了高质量 NLE 生成的伦理影响和其他最近 VL-NLE 研究中存在的问题。
Dec, 2022
本文提出了一种可解释自然语言理解的框架,使用一小部分人类注释的解释进行训练,并采用变分 EM 方法进行优化,同时提出了基于解释的自训练方法,在两个自然语言理解任务上进行实验,证明了该框架不仅可以在监督和半监督设置下进行有效的预测,还可以生成良好的自然语言解释。
Oct, 2020
利用大型语言模型,针对不同用户情境生成自然语言解释,并通过定量评估展示适应程度。我们收集了一个基准数据集,包括 100 个解释对象,每个对象都与针对三个不同受众类型(如教育工作者、学生和专业人员)的解释配对,使我们能够评估解释在特定信息需求和背景下让这些多样化群体(如学生、教师和家长)满意的程度。通过预训练语言模型,在不同大小的预训练语言模型上,我们考察了三类提示方法:基于规则的提示,元提示和上下文学习提示。我们发现:1)语言模型可以生成与目标情境更准确对齐的提示产生的解释;2)通过提示 “您是一个乐于助人的助手…” 来明确建模 “助手” 角色不是定位自然语言解释任务的必要技术;3)只有上下文学习提示能够帮助语言模型学习演示模板,但无法提高它们的推理性能。该基准数据集及我们的分析有助于未来生成情境化自然语言解释的研究。
Jun, 2024
该论文创建了一个包含注解高亮和自由文本解释的生态有效的自然语言推断数据集 --LiveNLI。使用该数据集对思维链进行提示,发现目前 GPT-3 在预测标签分布方面仍有改进的空间
Apr, 2023
通过加上自然语言解释,人工智能模型在各种任务中有了显著提升,但在遇到对抗性输入时,效果下降。本文研究了如何通过加入自然语言解释来提高模型对七个对抗性和具有挑战性的自然语言推理数据集的鲁棒性,并提出了 ChatGPT 的几个人工生成的自然语言解释来产生更多自然语言解释的新方法,表现更好。通过对五种常见的大语言模型进行评估,我们发现 ChatGPT 的几个人工生成的自然语言解释的 X-ICL 方法比 ICL 方法提高了 6% 以上。此外,我们还发现之前能有效提高 ICL 性能的提示选择策略,在鲁棒性评估中并不具有与 X-ICL 范式相称的效果。
Nov, 2023
本文介绍为了解决语言模型 (LMs) 无法满足的逻辑否定性质 (property) 所采用的方法。研究者提出一种名为 Meaning-Matching 的新的任务,用于直接帮助 LM 学习词汇语义信息,进而满足逻辑否定性质 (property)。在七个 GLUE 任务上的微调实验证明了该方法的有效性。
May, 2022
通过扩展自然语言推理数据集并引入人工提供的自然语言解释,我们实现了能够学习人类提供解释的机器学习模型,并将其用于提高模型性能和确定其可靠性的研究。
Dec, 2018