联邦提示和思维链推理以提高 LLMs 的回答能力
使用 “连续思维” 推理从大型语言模型中提取快速而精确的响应吸引了研究兴趣,其中关键挑战在于设计或选择最佳提示,并且该论文介绍了一种名为 FedLogic 的可解释的联邦多领域连续思维提示选择方法,以提高解释性和探索广义性与个性化之间的平衡原则。
Aug, 2023
在这篇文章中,我们提出了自主启发式链式思考 (SP-CoT) 自动化框架,用于大规模生成高质量的多跳推理数据集并通过上下文学习实现自主启发式推理,实验证明 SP-CoT 在大规模和小规模语言模型上的性能均显著优于前沿方法,并能在中间步骤中召回约 50% 的中间答案。
Oct, 2023
使用大型语言模型(LLMs)自动化医疗任务,如临床记录、信息检索和决策支持。我们提出一种修改的 MedQA-USMLE 数据集,用于模拟真实的临床场景,并探索基于思维链(CoT)推理的主观响应生成,以获取正确的医疗问题答案。我们还利用回报训练机制和人类参与,开发了更好的对比学习策略,并通过增量推理的提示得出贪婪解码方法比其他策略更好的结论。
Mar, 2024
本文提出了一种新的方法 Active-Prompt,通过任务特定的示例提示来适应 LLMs 的不同任务,通过从特定的查询池中选择最不确定的问题进行注释来确定哪些问题是最重要和有帮助的。经验结果表明了我们提出的方法的优越性,取得了八项复杂推理任务的最新成果。
Feb, 2023
本文通过构建 6 个涵盖用户状态的(包括人格、情绪和心理)中英数据集,探索了 CoT 方式来帮助大型语言模型进行推理和规划,以提供更个性化和优质的用户体验,并提出了一种新颖的演示选择策略,使用中间推理的语义相似性进行,实验证明了我们的方法相对标准提示在所有数据集上均表现出更好的有效性和稳健性。
May, 2023
Chain-of-Thought 提示可以增强大型语言模型(LLMs)的推理能力,现有的 CoT 综合方法针对简单推理任务,导致 CoT 提示的质量低且不一致。为了应对这一挑战,我们进行了 CoT 提示的实证研究并引入了 CoTGenius,一个用于自动生成优质 CoT 提示的新框架。我们进一步采用 CoTGenius 创建了一个广泛的 CoT 数据集,并在该数据集上对 Llama 2-Chat 7B 和 13B 模型进行了微调,得到了 ChainLM 模型。为了解决推理步骤中的累积误差问题,我们提出了一种步骤级辩论方法,其中多个辩论者讨论每个推理步骤,得出正确答案。大量实验证明,与现有模型相比,我们的 ChainLM 模型在解决一系列复杂推理问题方面表现出更高的熟练度。此外,我们对 CoTGenius 中的数据类别对模型性能的影响进行了深入分析。我们在此 https URL 上发布了我们的数据集和代码。
Mar, 2024
大型语言模型通过使用 ``思维链 '' 提示以逐步解决问题的方式更准确地解释,一种监督微调的方法是通过使用可调参数的梯度上升来最大化标记训练集中正确答案的平均对数似然。然而,我们提出了一种微调策略,尝试通过使用思维链提示最大化生成正确答案的`` 边际 '' 对数似然,大致平均所有可能的解释。我们使用受自学习推理器、备忘录式唤醒 - 休眠、马尔可夫性分数爬升和持续对比散度启发的简单马尔可夫链蒙特卡罗 - 期望最大化 (EM) 算法来解决条件于正确答案的解释后验分布的采样问题,并采用一种新颖的控制变量技术,随着模型的改进,将逐渐降低梯度估计的方差。将我们的技术应用于 GSM8K 和 BIG-Bench Hard 中的任务,我们发现这种 MCMC-EM 微调技术通常比 STaR 或带有或不带有思维链提示的微调方法在留存样例上提高模型准确性。
Nov, 2023
提出 Faithful CoT 框架以实现准确性和真实性的协同作用,通过将推理任务分解为翻译和问题求解两个阶段,使用 LM 和确定性求解器分别实现。在 10 个推理数据集上进行比较并展示 Faithful CoT 框架的优越性。
Jan, 2023
本文提出了一种用于 CoT 提示的 Verify-and-Edit 框架,通过使用外部知识来编辑推理链以提高其准确性,改善了大语言模型中存在的缺陷,实现了在多个开放型问题回答任务中的准确度提升。
May, 2023
引入了一种新的 Chain-of-Knowledge (CoK) 提示方法,旨在引导强大的语言模型(LLMs)生成显式的知识证明作为结构三元组,从而改进 Commonsense、事实、符号和算术推理任务的性能,并引入 F^2-Verification 方法估计链的可靠性
Jun, 2023