Granger因果关系关注专家混合模型: 基于神经网络学习重要特征
提出了一种基于因果原理的神经网络归因方法,其中将神经网络架构视为结构因果模型,并提出了计算每个特征对输出的因果效应的方法,这种方法可以高效处理具有大量特征的数据,并在模拟和真实数据集上进行了实验验证。
Feb, 2019
本文提出一种通过利用来自多个数据集的成像数据来增加样本数量的方法,分析了通过简单汇集这些数据可能引入的偏差类型,提出通过量化因果推断中的混淆度和因果程度来区分因果和混淆因素的方法,并在实验中表明这种方法能有效地估计从真实脑成像数据中得出的合理因果关系。
Jul, 2019
CAUSE是一个新颖的框架,通过拟合神经点过程来隐式捕捉事件互依存关系,然后使用公理归因方法从过程中提取格兰杰因果统计量,以解决学习异步、相互依赖、多类型事件序列的格兰杰因果关系的问题。在多个数据集上,CAUSE表现优于一系列最先进的方法,能够正确推断一系列事件类型之间的格兰杰因果关系,包括在具有不同事件互依存关系的数据集上。
Feb, 2020
提出了一种名为Preferential MoE的人类 - 机器学习混合专家模型,它可以根据决策中有无人类专家经验的必要性,在需要时对数据分类器进行增强。该模型展示了可解释的门控函数,提供何时遵循或避免人类规则的信息。提出了解决具有凸次问题的耦合多目标问题。提出近似算法并研究其性能和收敛性。最后,我们演示了Preferential MoE在治疗人类免疫缺陷病毒(HIV)和管理重度抑郁症(MDD)的两个临床应用中的实用性。
Jan, 2021
本文研究了神经网络中因果关系的估计及维护,提出了一种有效的方法来捕获和维护直接和间接的因果关系,并在高维数据中量化因果属性。通过实验验证此方法学习的因果属性能够接近于真实效果。
Mar, 2023
特征归因方法通过识别相关特征来解释神经网络的预测结果,本研究在“忠实度”范式内提出了两个新视角:可靠性和完备性,分别评估特征是否真正预测,以及归因结果是否完整,并基于数学基础提供可计算的定量度量,将这些指标应用于主流归因方法,为分析和比较特征归因方法提供了新视角。
Aug, 2023
解释机器学习算法的决策过程对模型性能提升和人类理解至关重要,通过评估单个变量的重要性来实现,甚至对于高容量的非线性方法,如深度神经网络(DNNs)。在高维设置中,引入了BCPI(基于块的条件排列重要性)作为一种新的通用框架来计算变量的重要性,具备统计保证并处理单个和群组情况。此外,通过将DNN架构扩展为适用于群组结构的次线性层,我们还引入了一种新的堆叠方法,以处理高基数群组,该方法在高度相关的群组中控制了一类错误,并在基准测试中展现了顶级准确性。此外,我们对大规模医学数据集进行了实际数据分析,旨在展示生物标志物预测方面的研究结果与文献的一致性。
Dec, 2023
近年来,神经网络展示出了从原始数据中识别复杂模式和关系的卓越能力。然而,理解这些黑盒模型的内部机制仍具挑战性,但对于高风险决策至关重要。我们的研究通过调查解释的基本和分布行为来解决这种困惑。此外,通过全面的模拟研究,我们展示了常见缩放和编码技术对解释质量的影响,评估它们在不同效应大小中的功效,并展示了基于排序的评估指标的不一致性的来源。
Apr, 2024
本文介绍了一种名为集成梯度相关性(IGC)的新方法,它将数据集属性与模型预测得分相关联,并通过与相关组件的直接求和实现区域特定分析。在脑部fMRI神经信号的图像特征表示以及神经人口感受野(NSD数据集)的估计以及手写数字识别(MNIST数据集)的研究中,我们演示了我们的方法。得出的IGC属性显示出选择性模式,揭示了与各自目标一致的潜在模型策略。
Apr, 2024
本研究针对当前因果可解释性领域中缺乏统一理论基础的问题,提出将因果中介分析作为研究框架。研究中明确了不同类型中介者的优缺点,提出发现新型中介者的必要性,并倡导更标准化的评估方法,以便于不同中介者在特定应用中的比较和选择,进而推动领域的进展。
Aug, 2024