通过对小组之间进行配对混合的数据增广方法,改善组间公平性并提高分类性能,特别是针对少数群体的社会偏见问题。
Sep, 2023
在本文中,我们提出了一种称为多重揉混(multi-mix)的简单而有效的扩展方法,它通过从样本对生成多个插值样本,可以比标准 mixup 更好地引导训练过程,从而在泛化性能、鲁棒性和校准度方面超过了各种 mixup 变体和非 mixup 基线。
Jun, 2024
提出了 Data Interpolating Prediction(DIP)框架,将样本混合过程与分类器的假设类封装在一起,从而使训练和测试样本受到平等对待,进而帮助降低 Rademacher 复杂度并减少泛化误差。DIP 在实证上表现比 Mixup 更优。
Jun, 2019
本文研究数据增强方法 Mixup 的原理,从特征学习的角度解释了 Mixup 方法的优越性,并提出在早期训练阶段应用早停止技术以提高训练效果。
Mar, 2023
该研究提出了一种新的概念框架 —— 监督插值,通过松弛和概括 Mixup,可以有效地规范混合数据的训练,进而提出了一种名为 LossMix 的简单却灵活且有效的正则化方法,并设计了一种两阶段的域混合方法,借助 LossMix 超越了 Adaptive Teacher,并在无监督领域适应中有了新的突破。
机器学习中的公平干预可能会加剧预测复杂性,而提出了一种可应用于任何公平干预的集成算法来解决挑战并确保更一致的预测。
Jun, 2023
本文提出了一种名为 Infinite Class Mixup 的基于分类器混合的新型数据增广策略,通过对每个增广样本定义一个唯一的新分类器,而不是对训练对标签进行混合,使得神经网络能够更好地学习不同数据类之间的线性行为模式,并在多种模型上取得了较好的性能表现。
May, 2023
该论文介绍了一种特定的数据增强方法,旨在增强分类任务中的交叉公平性。这种方法利用交叉性内在的层级结构,将群体视为其父类别的交集,通过学习组合父类群体数据的转换函数,对较小群体进行数据增强。我们对四个不同数据集进行的实证分析(包括文本和图像)表明,使用这种数据增强方法训练的分类器在交叉公平性方面表现优秀,并且在与优化传统群体公平度量方法相比时更具鲁棒性。
May, 2024
介绍了一种名为 AlignMix 的新型混合方法,通过在特征空间中几何对齐两个图像,从而使混合方法保留一个图像的几何特征和另一个图像的纹理,提高了表示学习效果。
Mar, 2021
本研究提出了两种子群公平和瞬时公平的概念,解决了时间序列预测中的偏差问题,并使用凸化层次结构全局收敛优化方法来证明我们的方法的有效性。
Sep, 2022