有效上下文学习的互补解释
通过对 40 个具有挑战性的任务提出带有答案解释的问题及各种匹配控制解释,我们发现解释可以提高大型语言模型在具有挑战性的任务上的零次和少量样本的表现,并且仅大型模型有益处。
Apr, 2022
利用大型语言模型,针对不同用户情境生成自然语言解释,并通过定量评估展示适应程度。我们收集了一个基准数据集,包括 100 个解释对象,每个对象都与针对三个不同受众类型(如教育工作者、学生和专业人员)的解释配对,使我们能够评估解释在特定信息需求和背景下让这些多样化群体(如学生、教师和家长)满意的程度。通过预训练语言模型,在不同大小的预训练语言模型上,我们考察了三类提示方法:基于规则的提示,元提示和上下文学习提示。我们发现:1)语言模型可以生成与目标情境更准确对齐的提示产生的解释;2)通过提示 “您是一个乐于助人的助手…” 来明确建模 “助手” 角色不是定位自然语言解释任务的必要技术;3)只有上下文学习提示能够帮助语言模型学习演示模板,但无法提高它们的推理性能。该基准数据集及我们的分析有助于未来生成情境化自然语言解释的研究。
Jun, 2024
利用大型语言模型和上下文学习,本研究提出了一种新的解释框架,展示了语言模型在解释其他预测模型方面的有效性,并通过实验证明了其与现有解释技术相媲美的性能,从而在可解释的人工智能领域开辟了新的研究前沿。
Oct, 2023
本文提出了一种黑盒优化解释注入的提示方法,以提高文本推理任务的性能,在问题回答、数学推理和自然语言推理等四个文本推理任务中实现了有效的促进效果。
Feb, 2023
本文研究了将 GPT-3 等大型语言模型与说明相结合是否能够提高上下文学习效果,发现对于涉及文本推理的自然语言推理和问答任务,使用不同样式的说明对 OPT、GPT-3(davinci)和 InstructGPT(text-davinci-001)等四个 LLM 的性能仅会带来小至中等的准确性提高,而 text-davinci-002 能够带来更实质性的提高,并且 LLM 产生的说明可能不支持、甚至与模型预测不一致,但这些说明仍有助于验证模型的预测,在此观察基础上,文章通过训练校准器使用自动提取的评分评估说明的可靠性,从而在全部数据集上实现后处理性能的提高。
May, 2022
使用新颖的 “演示笔记本” 对象,通过从语言模型过去的交互中收集和重复使用信息来选择问题的适当示例,从而实现了自动演示构建和选择的方法,并在多个推理基准上取得了最先进的结果。同时,通过对演示的严格分析方法,揭示了不同问题类型之间演示的相关性,为问题的推理解决提供了有价值的见解。
Jun, 2024