- 地球科学的因果关系 -- 时间序列和时空因果关系方法综述
该研究概述了时间序列和时空因果分析方法在地球科学中的应用,介绍了因果发现和推断的基本概念、评估技术和领域术语,并提供了当前最先进的方法以及它们的优势和局限性。此外,研究还描述了多种应用,例如极端天气事件、海平面上升和相互关联等,可以作为数据 - 量化和减轻多模大型语言模型中的单模偏差:因果视角
近期,大型语言模型 (LLM) 的进展促进了多模态 LLM (MLLM) 的发展。虽然 MLLM 具有令人印象深刻的能力,但往往过于依赖单模态偏见(例如,语言偏见和视觉偏见),导致在复杂的多模态任务中回答错误。为了研究这个问题,我们提出了一 - 带思维链的 LLMs 是非因果推理者
该研究探讨了大型语言模型中思维链(CoT)在推理中的作用,通过因果分析发现模型与人类推理过程之间存在差异,并揭示了模型中影响因果结构的因素。
- 计算实验与基于大型语言模型的智能体:调查与展望
计算实验、基于代理模型、大语言模型、人形化和因果分析是本文的关键词,该研究综述了代理结构的历史发展和其与人工社会的结合,阐述了计算实验和大语言模型代理相互提供的优势,并讨论了该研究领域的挑战和未来趋势,为后续相关研究提供指导。
- CaMU:深度模型遗忘中的因果效应解耦
机器消除学习需要删除遗忘数据的信息,同时保留剩余数据的必要信息。该研究通过因果分析提出一种名为 Causal Machine Unlearning (CaMU) 的新框架,通过干预剩余数据的信息,消除与遗忘数据相关的因果影响,并同时保留剩余 - 朝向因果分类的图神经网络的全面研究
研究发现了图神经网络在因果分析方面的潜力,通过评估不同数据环境中九个基准图分类模型的效率和灵活性,突显了预测能力以及需求进一步提升的领域。
- 审慎其后:语言模型中检索任务的通用应对策略
在研究中,作者通过引入 ORION,一个包括六个领域的结构化检索任务,从文本理解到编码等不同情境中研究了语言模型如何解决检索任务。通过因果分析得出结论,语言模型以模块化方式进行检索任务,通过对任务进行微观案例研究,提出了通过可扩展的内部监管 - 机器引导下探索现实世界的孤立波模型
通过因果分析、深度学习、遵循简约原则的模型选择和符号回归,本文通过一个案例研究展示了利用数据发现海洋罕见巨浪的新符号模型。该模型基于大量浮标观测数据上训练的人工神经网络,同时兼顾预测性能和因果不变性。我们将这个黑盒模型应用于符号回归,转化为 - 使用电路探针揭示变形金刚中的因果变量
神经网络模型在各种复杂任务上取得了高性能,但它们所实现的算法往往难以解释。我们提出了一种新的分析技术 —— 电路探测,通过自动发现计算假定的中间变量的低层电路,实现了对模型参数级别的有针对性的切割,从而开展因果分析。我们对简单算术任务上的模 - 模型适应的去偏算法
提出了一种用于检测和减轻语言模型中性别偏见的新方法,通过因果分析确定了问题模型组件,发现中上部前馈层最容易传递偏见,根据分析结果通过线性投影来改进模型,该方法(DAMA)显著减少了偏见,并保持了模型在下游任务上的性能。
- EMNLP多语言模型中的语言身份反事实检测
利用一个名为 AlterRep 的方法,运用因果分析技术对多语言模型的内部结构进行研究,发现大规模多语言模型中存在着既有语言特定的组件又有语言通用组件,并展示了反事实推理方法在多语言模型上的应用前景。
- 社交媒体上用户分享仇恨言论的因果理解
社交媒体上的仇恨言论威胁着个人的心理和身体健康,也导致现实世界中的暴力行为。本文通过一项全面的因果分析研究了用户属性,探究用户为何转发仇恨言论。我们开发了一个新颖的三步因果框架,关注用户的关注者数量、好友数量、帖子数量以及账号年龄等因素,以 - 高效机器人应用的因果发现
利用机器人实现快速而准确的因果分析,以提高机器人与人类的交互质量。
- 运用因果推理避免数据驱动参数分析的副作用:建筑、工程和建设行业案例研究
应用于建筑工程中的数据驱动模型中,因果分析具有重要作用,可避免偏见结果和认知偏差的发生。
- 非公平的午餐:医学影像机器学习数据集偏差的因果观点
机器学习方法在临床决策中的重要性日益提升,因此解决公平性问题变得越来越迫切。尽管已经有很多工作致力于检测和改善算法偏见,但目前的方法存在缺陷和潜在危害。我们提出因果角度来研究算法偏见,强调数据集偏见的不同来源可能看起来相似,但需要采用截然不 - VISPUR: 用于识别和解释数据驱动决策中的伪关联的可视辅助工具
VISPUR 是一个视觉分析系统,通过提供因果分析框架和以人为中心的工作流程,帮助人们识别和理解虚假关联,并做出负责任的因果决策。
- MM时序逻辑的模数下的反事实
该研究论文扩展了 Lewis 关于反事实推理的理论,提出了一个结合时间和反事实操作的逻辑来自动化推理并解决可满足性和追踪检查问题。
- 关于利用生成模型进行观察性因果分析
研究建议使用一种假设的生成模型进行观察数据的因果分析,该模型可以用于预测变量的值,但不足以推断因果关系。
- 神经网络稳健可解释性的因果分析
本文提出了一种基于因果分析的鲁棒性干预方法,以捕获神经网络内部的因果机制,从而审核模型行为,获得更加稳定和可信的解释,该方法适用于图像分类等任务。
- 视频问答的视觉因果场景细化
本文提出一种名为 VCSR 的跨模态因果关系推理框架,通过因果分析发现视频中关键的因果事件,解决了现有视频问答方法在识别视觉证据和问题方面的失败。实验表明,该方法在视频问答中表现出卓越的性能。