复杂问答中的问题分解中基于背景的能力转移
我们引入了 “连续提示”,通过将一个复杂的任务迭代地分解成简单任务并逐步解决,使得我们在限制监督的情况下,可以利用大型语言模型来回答需要做出潜在决策的复杂问题,并且在问题的分解和回答方面进行分别学习。
Dec, 2022
通过在大型语言模型中使用代码风格的上下文学习方法,从而解决了知识基础问题回答中逻辑格式错误的问题,并在少样本设置下实现了 WebQSP、GrailQA 和 GraphQ 等主流数据集上的最新技术水平。
Sep, 2023
通过将问题分解为子问题,强迫模型在不同的上下文中回答简单的子问题,可以显著提高模型生成推理的可靠性,并在一定程度上提升效能,从而有望验证 LLM 行为的正确性和安全性。
Jul, 2023
利用自然语言问句的分解来指导模型学习不同宽度的推理,在构建约 900 种不同推理模式数据的同时提高了典型语言模型在 4 个多步问题问答数据集上的 F1 表现,具有更高的鲁棒性,使得在两个对比数据集上 F1 点数提高了 5-8 个点。
May, 2022
本文提出了一种新的多跳问题回答模型架构,通过应用 CGDe 和 FGIn 两种策略,在 SQuAD 和 HotpotQA 数据集上表现出超越 state-of-the-art 基线的性能。
Jan, 2021
通过使用透明的中间状态进行复合会带来可解释性和安全性的好处,但可能需要工作流程支持和基础设施来保持竞争力,为此我们描述了一种人在循环中使用的对于开发和完善复合 LM 程序的工作流程,并开发了一个可视化 LM 程序执行跟踪的开源工具 - ICE,通过三个真实世界的案例将这一工作流程应用于 LM 程序,并比非组合基线提高了 LM 程序的准确性 - 描述随机对照试验中使用的安慰剂(25%到 65%),评估参与者遵守医疗干预(53%到 70%)以及在 Qasper 数据集上回答 NLP 问题(38%到 69%)。
Jan, 2023
我们的研究探讨了与上下文学习相关的大型语言模型的预测不确定性,强调这种不确定性可能来自提供的示范(先验不确定性)和模型配置的歧义(后验不确定性),提出了一种新的公式和相应的估计方法来量化两种类型的不确定性,以插入和使用的方式无监督地理解上下文学习的预测。广泛的实验证明了该分解的有效性。
Feb, 2024
该研究提出了一种使用 CKY 式分析器以底向上的组合方式计算问题文本的表示和标记,以在多步推理时达到系统化推广的模型,将模型调整为以树结构的归纳偏置,因而在算术表达式基准测试以及闭合测试中达到了 96.1% 的准确率。
Jul, 2020
本研究探讨了模拟推理对于在可组合元素的视觉刺激下的情境组合的学习的作用,并提出了一个名为 Im-Promptu 的元学习框架,用于训练多个具有不同组成水平的代理。实验揭示了推广能力和组合度之间的权衡,可以扩展学习到的组合规则到看不见的域,但在组合任务上表现不佳。集中于对象的标记方法配合交叉注意模块生成一致和高保真的解决方案,这种感性偏见特别关键。最后,我们展示了 Im-Promptu 作为图像生成的直观编程界面的用例。
May, 2023
多模态问题回答(MMHQA)是一个具有挑战性的任务,我们提出了一个 MMHQA-ICL 框架,包括强大的异构数据检索器和图像描述模块,并首次使用了端到端 LLM 提示方法。实验结果表明,我们的框架在多模态问题回答上表现出色,优于所有基准线和使用完整数据集训练的方法,达到了多模态 QA 数据集在少样本设置下的最新成果。
Sep, 2023