ERA-CoT: 通过实体关系分析改进思维链
使用大型语言模型的 CoT-ER 方法为少样本关系提取提出了一种新的方法,该方法利用具体证明推理将证据明确地纳入思维链式提示,实验结果表明,CoT-ER 方法(无训练数据)在 FewRel1.0 和 FewRel2.0 数据集上的表现与全监督(有 100% 训练数据)最新方法相当。
Nov, 2023
该研究提出了一种将语言与视觉信息相结合的理由生成和答案推断的多模态 - CoT 框架,使得答案推断可以更好地利用基于多模态信息的生成的理由,并取得了比先前最先进的 LLM(GPT-3.5)高 16 个百分点(75.17%-> 91.68%准确度)的性能,在 ScienceQA 基准测试中甚至超过了人类的表现。
Feb, 2023
使用检索机制动态自动选择基于跨模态相似性的示例,以提升多模态推理中大型语言模型的性能。对各类示例进行分组并分别从不同组中检索示例,以增加示例的多样性。通过一系列实验,我们证明了我们的方法在多模态推理任务中取得了显著的性能改进。
Dec, 2023
本文提出了一种用于 CoT 提示的 Verify-and-Edit 框架,通过使用外部知识来编辑推理链以提高其准确性,改善了大语言模型中存在的缺陷,实现了在多个开放型问题回答任务中的准确度提升。
May, 2023
使用 T5 预训练模型实现了图形思维推理模型,提高了基于文本推理任务 GSM8K 的性能和面向多模态的推理任务 ScienceQA 的准确率,通过较少的骨干模型参数与基于 700M 参数的 Multimodal-CoT 模型获得相当的结果,探索了非线性思考的建模方法。
May, 2023
本研究通过利用 GPT-3.5 中的链式思维和图形推理技术,以及详细的例子推理,全面探索了关系抽取,并引入了一种新颖的图形推理方法,将关系抽取拆分为连续的子任务,提高了处理复杂关系数据的精确性和适应性,实验证明了我们方法的有效性。
Apr, 2024
采用新的训练方法 AS-ES(Abstractive Segments - Extractive Segments)学习,利用 CoT 中的内在信息进行迭代生成,实验证明该方法在 MWP 和 PET 摘要等 CoT 广泛任务上优于直接的 seq2seq 训练,无需数据增强或改变模型本身,并且进一步探讨了小模型学习 CoT 低效的原因并解释了 AS-ES 学习的原理,为 CoT 的基本机制提供了洞察。
Mar, 2024
提出了 Emotional Chain-of-Thought (ECoT) 方法,利用人类情感智能准则提升大型语言模型(LLMs)在情感生成任务中的性能;通过自动化模型评估方法 EGS 验证了 ECoT 的可靠性,并展示了其有效性;讨论了 LLMs 在情感分析领域的潜力,以及 LLMs 与 ECoT 在情感生成任务中的关键见解。
Jan, 2024
该论文提出了 Visual CoT,一种利用多模态大型语言模型(MLLMs)的推理能力的新型流程,通过结合可解释性认知链条(CoT)推理来处理复杂的视觉输入,并提供可解释的思路。我们收集并引入了 Visual CoT 数据集,该数据集包含 373k 个问题 - 答案对,通过中间边界框突出显示回答问题所必要的关键区域,能够评估在需要特定局部区域识别的场景中的 MLLMs 的性能。大量实验证明了我们的框架的有效性,并为更好的推理策略提供了启示。Visual CoT 数据集、基准和预训练模型可用于促进相关方向的进一步研究。
Mar, 2024
本研究探索了如何通过生成 “思考链” 从大型语言模型中提取出推理能力并综合常识推理能力,进而实现条件提示蒸馏,提高学生模型在 MNER 和 MRE 数据集上的效果。
Jun, 2023