使用 KL 回归在多个环境中识别不变因素
该研究介绍了两种机器学习建模方法 —— 不变性随机特征和不变性核方法,其中不变性核方法包括全局平均池化的卷积神经网络的神经切比雪夫核。研究表明,建立不变性机制使得机器学习模型样本容量和隐藏层单元数量成指数降低,从而在保持测试误差不变的情况下提高统计效率。此外,研究表明,数据增广与无结构核估计等价于一个不变性核估计,具有相同的统计效率。
Feb, 2021
本文探讨了如何从多个数据集和关于基础数据生成模型的定性假设组合中学习出强健、通用的预测模型。通过定义不同的不变性特性,我们的方法旨在在未观察到混淆因素的情况下建立因果性的解,从而连接数据分布的一组仿射组合上的显式分布鲁棒优化问题。我们在医疗保健数据上展示了我们方法的实证表现。
Jul, 2020
通过学习来自多个环境的数据,提出在模型学习中,使用部分不变性(Partial Invariance)来放宽 Invariant Risk Minimization(IRM)的假设条件,从而在语言和图像数据上进行实验并得出结论。
Jan, 2023
发展了一种方法来获得无分布预测区域,以描述不同环境下数据的分布差异,应用于机器学习中的无变异风险最小化(IRM)模型,基于加权遵从得分构造自适应遵从区间,并证明其条件平均值在某些条件下,通过模拟实验和实际案例的应用证明方法的有效性。
May, 2023
本文介绍了一种基于核化的异构风险最小化算法,实现了潜在特性探索和不变学习,并通过指定不变梯度方向向原始神经网络传递反馈。我们从理论和实践两方面证明了我们的算法的有效性。
Oct, 2021
该研究提出使用不变风险最小化方法找到多个环境之间的纳什均衡来训练模型,从而降低伪相关性对模型的影响。通过用最佳反应动态来解决这个问题,该方法使得模型在保证泛化的同时提高了训练的稳定性。该算法为博弈论机器学习算法的成功案例之一。
Feb, 2020
为了在监督学习任务中很好地推广训练数据,我们应该将不变性纳入模型结构中,并使用边际似然进行学习,我们通过高斯过程模型演示了这一点,并提出了一种包含不变性的高斯过程的变分推断方案。
Aug, 2018
基于观测数据的领域自适应问题,通过线性结构因果模型和表示学习方法,研究使用不变的协变量表示来解决概念漂移和改善目标预测的可行性,并通过在 Stiefel 流形上约束优化来证明大多数局部最优解与不变的线性子空间一致。通过验证实现方法和理论的三个真实数据集。
Jun, 2024