本文提出了两种简单而有效的度量方法,CEV和SDE,以量化剪枝模型的偏差防御质量,并展示了知识蒸馏可以调和剪枝神经网络中的偏差。我们发现模型相似度与剪枝诱导的偏差之间存在强关联,这提供了一种强大的方法来解释为什么在剪枝神经网络中会发生偏差。
Jun, 2021
本文提出了基于个体神经元表现出的矛盾现象的FairNeuron工具,通过选择性的神经元Dropout来实现模型准确性和公平性之间的平衡,从而有效提高所有模型的公平性,同时保持稳定的实用性。
Apr, 2022
在电脑视觉和自然语言处理领域中,神经网络虽然能够取得最新成果,但是其存在数据内的建模偏见,导致人工智能领域出现了公平性的研究方向,其目的为了纠正算法偏见,提出了几种基于公平性的神经网络去偏置的方法。
Nov, 2022
本文提出了 Fairify 方法,使用 SMT 来验证神经网络中的个体公平性,通过输入分割和剪枝以证明或反驳公平性认证,并在 25 个实际神经网络上进行了评估。
Dec, 2022
在现代数据科学中,机器学习已被广泛应用,算法公正性已成为一个重大关注点。研究者提出了各种公正性标准,可以通过训练时的公平性约束来实现公平性,新方法则利用预训练和微调来训练公平的神经网络。在两个流行的图像数据集上进行的实验表明,公平性微调足以提高深度神经网络的公平性。
Apr, 2023
DICE是一种信息论测试和调试框架,通过量化含有决策数据的受保护信息来识别和定位深度前馈神经网络中的公平缺陷,在此基础上提出了一种因果调试框架来定位不足训练的层和神经元,并通过实验有效地生成有歧视性的实例。
该论文介绍了在缺失保护属性情况下学习公平图神经网络(GNNs)的问题,并提出了一种称为BFtS的公平缺失数据插值模型,通过两个对立方与公平GNN合作,BFtS通常实现了更好的公平性和准确性的折衷。
Nov, 2023
通过对抗训练技术来开发更公平的深度神经网络(DNNs)以减轻已知存在的固有偏见。我们提出了一个强大的优化问题,并证明这可以改进多个数据集的公平性,包括合成数据和真实世界数据,使用一个仿射线性模型。通过利用二阶信息,我们能够比纯一阶方法更高效地找到优化问题的解决方案。
Jan, 2024
通过在训练阶段解决内在偏差,FairVIC方法提高神经网络的公平性,不依赖于保护性特征进行预测,从而在不牺牲模型准确性的情况下显著提升公平度。
Apr, 2024
本研究解决了深度神经网络个体公平性证明和量化的不足。我们提出了一种通过符号区间分析结合迭代优化的方法,能够数量化地证明公平性,而不仅仅是判定模型是否公平。实验结果显示,该方法比现有技术更加准确且速度提升几个数量级。
Sep, 2024