Oct, 2023

通过元学习对图数据进行欺诈性公平性攻击

TL;DR我们研究了图上的欺骗性公平攻击以回答以下问题:我们如何通过毒化图学习模型来欺骗性地加剧偏见?我们通过双层优化问题回答了这个问题,并提出了一个名为 FATE 的元学习框架。FATE 可广泛适用于各种公平定义和图学习模型,以及任意选择的操作方法。我们进一步实例化 FATE,对图神经网络上的统计平等和个体公平进行攻击。我们在半监督节点分类任务的真实数据集上进行了广泛的实验评估。实验结果表明,FATE 可以在考虑或不考虑公平性的情况下放大图神经网络的偏见,同时保持下游任务的效用。我们希望本文能为公平图学习的对抗鲁棒性提供启示,并为未来的研究设计稳健和公平的图学习提供指导。