- ACL神经语言模型的表示能力与思维链式推理
现代语言模型的性能已通过思维链推理得到改进,思维链推理扩展了语言模型的计算能力,但也引入了类别错误,为此我们在概率模型中形式化思维链推理,并通过对序列生成模型的表示能力进行研究,证明它们可以表示与概率图灵机相同的字符串分布。
- 大型语言模型中忠实思维链路推理的困难性
大语言模型(LLM)在关键领域,如医疗保健中得到越来越多的应用,为了确保这些模型生成的链式思维(CoT)推理能够忠实地捕捉其基本行为,我们探索了三种常用方法 —— 上下文学习、微调和激活编辑 —— 来指导 LLM 的行为,以提高 CoT 推 - 打破链条:大型语言模型能成为捷径推理器
通过在语言模型中引入人类类似的启发式和捷径策略并开发零样本提示策略,以优化 Chain-of-Thought 推理,同时引入 ShortcutQA 数据集用于评估和提升人工智能的推理效率。
- 迭代头部:关于思维链式机制的研究
本文通过在可控且可解释的环境中演示,填补了对 CoT 推理内在机制和出现条件的理解有限之处,观察到一种专门用于迭代推理的特殊注意力机制 ——“迭代头”,并追踪到注意力层次上这些迭代头的出现和精确运作,并测量其所产生的 CoT 技能在任务间的 - TIE:针对复杂提示和高保真度编辑的文本图像编辑革新
我们提出了一种创新的图像编辑框架,利用多模式大语言模型(LLMs)的强大的思路链条推理和本地化能力来辅助扩散模型生成更加精细的图像。
- 通过强化学习将大型视觉语言模型细调为决策代理
使用强化学习对视觉语言模型进行微调,提出了一种算法框架来增强其决策能力,验证了连续思维推理的重要性,并展示了在各种任务中超越商业模型的性能。
- 马尔科夫代理的忠实语言建模
链状思维推理可深度理解语言模型内部推理。我们提出了一种训练方法,能够生成独立于其他上下文的足够预测未来文本的链状思维,在确保语言模型能够预测未来标记的同时,证明其使用了链状思维来理解上下文。我们通过策略梯度和 PPO 优化得到 “马尔可夫” - 检索式机制解释长上下文真实性
通过系统调查,发现特定类型的注意力头在检索信息和长范文本中具有重要作用,称之为检索头,它们在转换器模型中普遍存在,稀疏且动态激活,对于链接思考推理和避免虚幻现象有深远影响。
- 指令调整能提高 LLMs 的一致性吗?
说明指令调整对模型的一致性有积极影响,提高了零样本性能、思维连贯性和价值对齐,并通过对事实记忆的机制分析解释了这些改进。
- CoTAR: 用多级细粒度的链式思维归因推理
通过引入面向归因的思维链推理方法来提高归因准确性,并与微调相结合,改进了生成模型的反应和归因准确性,显示了小型大语言模型在某些情况下超越 GPT-4 的潜力。
- 只有 LLMs 可以进行推理吗?:小型语言模型在任务规划中的潜力
通过构建 COmmand-STeps(COST)数据集,我们比较了 GPT3.5 和 GPT4 与 finetuned GPT2 在桌面和厨房环境中的任务规划表现,结果表明 GPT2-medium 在特定领域的任务规划上与 GPT3.5 相 - 使用选择性过滤减轻具有误导性的连续思维推理
通过选择性过滤推理程序(SelF-Reasoner)提高了大型语言模型的链式思考推理能力,进而改进了基于 T5 模型的科学问题、Bluetooth 问题和最后一个字母问题的解答质量。
- 停止推理!当多模态延续思维推理遇到对抗性图像
多模态 LLMs 对抗攻击鲁棒性的评估及 CoT 推理过程中的鲁棒性增强研究
- 演绎搜索:链式思维推理的可推导理由解码
通过 Deductive Beam Search 的有机结合,我们的方法显著提高了不同规模的 Large Language Models 在算术、常识和符号等 3 个推理领域的性能,并证明其在检测多样且微妙推理错误以及对不同模型规模的鲁棒性 - ACL大型语言模型的过度推理和冗余计算
LLMs tend to generate lengthy and unnecessary calculations on the math QA dataset GSM8K-Zero, even though the questions - ICLR逃离高昂成本:多步推理的早停自一致性
我们提出了一种简单且可扩展的采样过程 ESC,用于减少 Self-consistency 的成本,并在不牺牲性能的情况下动态选择性能成本平衡的控制方案。通过在算术、常识和符号推理任务上进行实验证明,ESC 显著降低了链式思维推理的平均采样数 - 推进大型多模型:明确的推理链与视觉问题生成
本文介绍了一种通过图像内容和文字指令进行显式推理的新方法,采用大型多模态模型(LMM),并引入了一个能够提问以获取必要知识以增强推理过程鲁棒性和可解释性的系统。实验结果表明我们的方法能够在面对模糊的视觉输入时,朝着更具鲁棒性、准确性和可解释 - 实现统一的多模态推理框架
利用链式思维和视觉问答技术,通过评估文本嵌入方法和视觉嵌入方法的有效性,研究如何提高深度学习模型在解决多项选择问题方面的准确性,实验结果显示这些方法在增强推理和问答能力方面具有潜力。
- 多模态潜空间学习用于语言模型的思维链推理
我们提出了一种新的多模态链式思考推理方法,通过扩散过程利用潜在空间学习产生与语言思维相吻合的有效图像特征来融合图像特征和文本表示,提高多模态链式思考推理的复杂推理能力,从而为语言模型在多模态推理中提供了更健壮和有效的解决方案。
- EMNLP回答知识密集型复杂问题的概率思维推理
大型语言模型(LLMs)能够用链式思维推理回答知识密集型复杂问题,但当模型的参数中缺少所需的知识或不是最新的时,它们往往会产生错误的推理步骤。本文提出一种新方法:概率思维树推理(ProbTree)。在开放领域的情境下,我们利用外部知识检索加