多跳空间推理中的提取与推理解耦合
通过使用神经符号技术对语言模型进行培训,可以利用推理的逻辑规则作为约束,并为模型提供额外的监督来源,以弥补由于无法达到所需的抽象水平而在未观察到的复杂输入组合中难以提供解决方案的问题。我们聚焦于文本上的空间推理这一具有挑战性的问题,通过在多个语言模型上的多个基准测试中的结果验证了基于神经符号训练的有效领域转移假设。
Jun, 2024
构建和利用语义结构的多跳问题回答框架,通过神经模型和连续思维机制提高推理能力,并结合信息抽取和提取的语义结构实现更准确和可解释的问题回答。
Nov, 2023
本文提出了一个自然语言文本中空间推理的问答基准,其中包含更现实的空间现象,并且挑战最先进的语言模型。我们提出了一种远距离监督方法来改善这个任务。具体来说,我们设计语法和推理规则来自动生成视觉场景的空间描述和相应的问答配对。实验证明,进一步预训练语言模型对这些自动生成的数据显著提高了语言模型对空间理解的能力,从而有助于更好地解决两个外部数据集,即 bAbI 和 boolQ。我们希望这项工作能够推动更复杂的文本空间推理模型的研究。
Apr, 2021
当前最先进的大型语言模型(LLMs)在空间推理方面性能较差,但随着模型规模的扩大,在空间推理能力上有了显著提升,Finetuning 大或小型语言模型可以显著提高它们的 F1 分数,专有的 LLMs 在拓扑空间理解和推理方面明显优于开源模型。
Jun, 2024
本论文提出一种文本条件化的关系网络模型,通过跨模态的注意力机制动态计算参数以捕获实体之间的精细空间关系,从而实现对文本中空间参照的理解,具有可解释性和鲁棒性,在三个任务中实现了 17% 和 15% 的表现改进,从而解决了在自主导航和机器人控制中学习空间概念表示的关键挑战。
May, 2020
利用大规模视觉语言模型评估其在不同视觉推理任务中的性能,特别是在理解空间关系方面的能力的研究。通过细粒度的组合性先验来解决空间关系推理任务的评估和排名,结合物体及其位置的核心语义来计算空间子句的最终评分,并比较不同视觉语言模型在空间关系推理方面的能力。
Aug, 2023
本文提出了一个解释性逐步推理框架,将单跳支持句子识别和单跳问题生成结合起来,并利用当前跳的推理来推导出最终结果。我们使用一个统一的读者模型进行中间跳推理和最终跳推理,并采用联合优化来实现更精确和稳健的多跳推理,取得了良好的实验效果。
Aug, 2022
本文提出了一个在模拟环境中进行空间推理的模型,使用强化学习和广义值迭代方法进行训练,取得了目标定位误差减少 45% 的成果。模型以指令文本为引导,学习世界的表示,对语言和环境进行联合推理,实现了本地邻域与对应词汇的精准对齐,同时处理指令中的全局参照。
Jul, 2017
本研究基于 VAE 框架,定量定性地评估了生成的潜在空间在向量操作和语义解缠方面的几何特性,实证结果表明潜在空间中的角色内容被解缠,这为通过操纵向量在潜在空间上的遍历来控制解释生成提供了机会。
Oct, 2022