- KDD一尺之法:面向多种敏感属性的公正图神经网络学习
最近的研究强调了图神经网络(GNN)中的公平性问题,即 GNN 针对被敏感属性(如种族和年龄)分类的特定保护群体产生了歧视性预测。针对这个问题的不同努力取得了显著进展,但往往专门针对特定的敏感属性,因此需要从头开始对模型进行重新训练以满足敏 - 利用不变学习的时间序列预测方法进行超出分布泛化
通过不变性学习,提出了 FOIL 框架,该框架能够增强时间序列预测模型在分布不同的情况下具有的广义能力,改进性能可达 85%。
- 不变表示的鲁棒评估
我们提出了一种用于评估基于不变风险最小化方法的不变性能的新方法,并通过大量的数值研究证明了其有效性。
- 基于多头神经网络的环境多样性用于不变性学习
提出了一个包含多头神经网络的不变学习框架,名为 EDNIL,用于吸收数据偏差并提高模型对分布转变的鲁棒性。该算法无需先前环境知识或对预训练模型的强假设,并具有与变体和不变特征的性质研究相连接的理论基础。实验证明,使用 EDNIL 训练的模型 - ACL受控文本生成的不变特征学习表征
本文探讨了在生成文本中使用分类器控制文本的生成过程中,生成的文本分布与分类器训练集不一致所导致的问题,并提出了一种基于不变性学习的解决方案和选择自然环境的启发式策略。通过实验,本文证明了分布转换对于生成文本的困难性以及不变性方法在解决这个问 - 不变风险最小化的一致性推断
发展了一种方法来获得无分布预测区域,以描述不同环境下数据的分布差异,应用于机器学习中的无变异风险最小化(IRM)模型,基于加权遵从得分构造自适应遵从区间,并证明其条件平均值在某些条件下,通过模拟实验和实际案例的应用证明方法的有效性。
- ICML循环环境推理用于不变性学习
本文研究了在环境标签未知的情况下的不变学习问题。我们提出了一种迭代的环境推断方法,结合环境内部的条件概率分布不变性,提高模型对冗余相关性的理解,从而实现更好的不变学习和环境推断表现。在合成和真实数据集上,实验证明了该方法的优越性。
- ZIN: 如何在不进行环境分区的情况下学习不变性?
本研究提出了一种新框架可以同时学习环境分区和不变的表示,并在合成和真实数据集上进行了实验证明其改进的性能。
- ICLR处理图上的分布偏移:一个不变性的视角
本文提出了一种基于不变性学习和风险最小化的方法,实现图神经网络对于图结构数据上的越域通用性问题进行预测和预测不确定性的估计。
- 具有可微扩增层的深不变网络
本文探讨了从训练数据中学习不变性的新方法,该方法使用可学习的增强层直接构建在网络中,具有很高的可塑性、易于训练和快速的优点,可以应用于计算机视觉以外的广泛领域。实验证明,该方法不受模型表达能力的限制,与当前基于双层优化的现代自动数据增强技术 - 核化异构风险最小化
本文介绍了一种基于核化的异构风险最小化算法,实现了潜在特性探索和不变学习,并通过指定不变梯度方向向原始神经网络传递反馈。我们从理论和实践两方面证明了我们的算法的有效性。
- ICML异构风险最小化
提出了异质风险最小化 (HRM) 框架来实现数据的异质性联合学习和不变关系, 实现了稳定的预测,从而解决了许多不变学习方法无法应用的问题。
- 深度神经网络的性能与对于微分同胚的相对稳定性相关
通过定义最大熵概率分布,研究了给定范数下的典型微分同胚,确认了深度学习中关于稳定性的一些传统假设,以及微分同胚相对于普通变换的稳定性与测试误差之间的相关性。
- 不变学习中的公平性和鲁棒性:毒性分类的案例研究
本文关注于通过鲁棒性机器学习算法,提高在有偏数据集上训练、在无偏数据集上测试的分类器的公平性和鲁棒性。其中,作者使用了一种称为 “不变风险最小化(IRM)” 的领域泛化算法,并将其应用于公正预测互联网评论的毒性。作者发现,IRM 算法在提高