朝向准确性 - 公正性困境:基于对抗样本的数据增强用于视觉去偏差
利用对抗生成和微调的新方法来减轻计算机视觉模型中的偏见,通过使用欺骗深度神经网络但不欺骗人类的对抗图像作为反事实进行公正模型训练,通过 qualitatively 和 quantitatively 的评估证明了相比于现有方法,我们的方法实现了改进的偏见减轻和准确性。
Apr, 2024
通过融入对抗性和反对抗性扰动分布,增强样本的深度特征,适应性调整学习困难以适应每个样本的特征。同时,开发了一种基于元学习的框架,通过引入增强的效果并跳过显式的增强过程,优化分类器。在长尾学习、广义长尾学习、嘈杂标记学习和子种群转移学习等四种常见偏差学习场景中进行了广泛实验,实证结果表明该方法始终达到最先进的性能水平,突显其广泛适应性。
Apr, 2024
本研究提出一种生成无监督模型的对抗性示例的框架,使用相互信息神经估计器作为无监督信息理论相似度测量,建议使用此框架将对抗性样本作为简单的插入数据增强工具进行模型再训练,以大幅提高在不同无监督任务和数据集上的性能。
Mar, 2021
为了保证医疗人工智能系统的公平性和对负责任,我们提出了一种对抗性多任务训练策略来同时减轻和检测基于深度学习的医学图像分析系统中的偏见。实验表明我们提出的方法具有较高的有效性。
Mar, 2021
本文提出了一种用于对抗训练的增强鉴别器,以更丰富的特征和更明确的方式建模平等机会,实验证明相比标准的针对偏见的对抗性去偏见方法,我们的方法在性能 - 公平性平衡方面有很大的改进。
Mar, 2022
本文提出使用数据增强方法减少自然语言处理中的性别偏见,并通过削减数据集中的例子提高模型的公平性,实验证明该方法在三个文本分类数据集上所实现的公平性优于数据增强方法。
Nov, 2022
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
本文研究了对抗样本在不平衡学习中的应用,在训练中引入 Guiding Adversarial Examples (GAEs) 方法,通过调整有偏的决策边界,将该方法应用在少数派类别样本的分类任务中,证明其能有效提高少数派类别样本的准确率,而对大多数派样本的准确率影响较小,该方法可与现有最先进方法媲美。据我们所知,我们是第一个应用对抗样本处理不平衡学习问题的研究。
Jan, 2022
本研究提出了一种基于图像转换的敌对数据扩充方法,旨在通过转换感性种族特征的面部图像,实现每个主题的数据集平衡。实验结果表明,该方法可以减少原本不平衡的数据集中对(种族)少数群体的认知偏差,对 Softmax,CosFace 和 ArcFace 的识别表现产生积极影响
Apr, 2020
提出了一个框架以减少训练数据集中不公平的代表性,其中使用两个相互操作的对手功能来提高公平性。首先,通过训练模型防止猜测受保护属性的值,同时限制效用损失,实现模型公平性优化。然后,利用对抗机器学习的规避攻击生成新的被错误分类的例子,并用于第一步模型的重新训练和改进增强模型的公平性。将这两个步骤迭代应用,直到显著提高公平性。
May, 2020