因果正则化
在给定描述不同领域 / 分布共享的数据生成过程的因果图的基础上,通过强制执行足够的图推断条件独立性可以确定领域通用(非虚假的)特征表示。针对标准的输入 - 输出预测设置,我们将文献中考虑的图集合分类为两个不同的组:(i)那些在训练领域中的经验风险最小化器给出领域通用表示和(ii)那些不给出的情况。对于后一种情况(ii),我们提出了一个新的具有正则化的框架,该框架在没有关于虚假特征的先验知识(或代理)的情况下证明了足够用于确定领域通用特征表示。在实证方面,我们的提出的方法在(半)合成和真实数据方面表现出色,优于其他最先进的方法的平均和最差领域转移准确性。
Apr, 2024
本文提出 Causal Structure Learning (CASTLE) regularization 对神经网络进行因果关系约束,实现变量之间的因果关系的发现,提高模型泛化能力。CASTLE regularization 能有效地恢复只有因果关系的因素,而网格化的正则化方法只能恢复所有输入功能。理论分析和实验证明,与其他流行的基准约束相比,CASTLE 能够更好地预测测试集并具有更好的泛化性能。
Sep, 2020
本文基于因果关系假设,将因果技术纳入预测建模中,提出一种新的因果正则化逻辑回归(Causally Regularized Logistic Regression,CRLR)算法,以共同优化全局混杂因素平衡和加权逻辑回归,以解决对假设的无知选择偏差对实际应用中的稳健模型学习的重要性问题。
Aug, 2017
本研究提出了一种正则化方法,通过领域知识中的先验知识来对齐神经网络的学习因果效应,包括直接和总因果效应,并在十二个基准数据集上进行实验和测试,表明该方法可实现神经网络模型的正则化,维护所需的因果效应而不牺牲准确性,而且在嘈杂的输入情况下还能提高模型准确性。
Nov, 2021
提出了一种基于 Jacobian 正则化的神经 Granger 因果关系(JRNGC)方法,通过构建一个单一模型来学习多变量总结的 Granger 因果关系和全时的 Granger 因果关系,消除了权重的稀疏约束,同时在保持较低模型复杂度和高可伸缩性的情况下,实现了与最先进方法的竞争性性能。
May, 2024
该研究通过外显地对深度模型进行规则化,以便人类用户可以快速了解模型预测过程,训练了深度时间序列模型,使其类概率预测具有高准确性,同时又被节点较少的决策树紧密建模。通过直观的玩具示例以及用于治疗脓毒症和艾滋病的医学任务,我们展示了这种新的树规则化方法产生的模型比简单的 L1 或 L2 惩罚更容易被人类模拟,同时不会牺牲预测能力。
Nov, 2017
本文介绍了一种基于决策树的解释器模型,通过使用 L1 - 正交正则化技术在保持神经网络准确性的同时,生成一个小型决策树模型,从而提供了对神经网络的可解释性,并证明使用这种技术可以获得模型更高的保真度和更低的复杂性。
Apr, 2019
我们提出并分析了一种规则化方法,用于结构化预测问题。我们表征了一大类损失函数,允许在线性空间中自然地嵌入结构化输出。我们利用这一事实设计了学习算法,使用代理损失方法和规则化技术。我们证明了所提出的方法的普遍一致性和有限样本边界,表征了所提出方法的泛化性能。我们提供了实验结果,证明了所提出方法的实用性。
May, 2016