贝叶斯神经网络后验估计尖化对隐性视觉偏差的缓解
提出一种基于贝叶斯神经网络和认知不确定性加权损失函数的方法,动态识别可能训练样本中的偏见并在训练期间对其加权,以减弱深度神经网络在视觉数据中出现的学习偏见。在偏见基准数据集和实际面部检测问题上,展示了这种方法缓解视觉偏见的潜力,并考虑了方法的优点和缺点。
Apr, 2022
该论文介绍了 Bayes by Hypernet,一种新的变分逼近方法,通过将超网络视为隐式分布来解决现代神经网络在未见过的、嘈杂的或标记错误的数据上过于自信,并且不能产生有意义的不确定性度量的短板,本文在 MNIST 和 CIFAR5 任务中表现优异且最具鲁棒性,同时满足复杂度、可扩展性和准确度的要求。
Nov, 2017
本研究提出了一种使用偏置先验的贝叶斯方法(DeBayes),来学习去偏置的嵌入,以实现更加公平的链接预测,有效应对机器学习算法中人种、性别、年龄等个人隐私信息对算法造成的影响。
Feb, 2020
本文提出了一种新颖的神经自适应经验贝叶斯(NA-EB)框架,该框架结合了变分推断和梯度上升算法,以实现同步超参数选择和后验分布的近似,从而提高计算效率,并通过对各种任务的广泛评估展示了我们提出框架在预测准确性和不确定性量化方面的优越性。
Apr, 2024
在电脑视觉和自然语言处理领域中,神经网络虽然能够取得最新成果,但是其存在数据内的建模偏见,导致人工智能领域出现了公平性的研究方向,其目的为了纠正算法偏见,提出了几种基于公平性的神经网络去偏置的方法。
Nov, 2022
本研究通过重构和最小化预期变量之间的统计相依来解决图像训练数据偏见的问题,使用包含 U-net 和预训练分类器的架构,将所提出的模型与最新的去偏见方法进行了对比,并展示了模型的公正性 - 准确性组合。
Sep, 2022
本文利用人类的知识针对神经网络的偏见问题提出了一个基于失败的去偏见训练方法,该方法通过训练两个神经网络同时进行,其思想是:(a) 通过反复放大偏见意图意图有意地训练第一个网络,(b) 重点关注具有对该偏差反对意见的样本以去偏见训练第二个网络。实验表明,该方法在合成和真实数据集中显著改善了网络抵御各种偏见的训练,甚至在某些情况下,比需要显式监督的有关特征的去偏见方法表现更好。
Jul, 2020
深度神经网络在训练数据中容易学习和依赖偶然相关性,但是对高风险应用而言,这可能导致致命后果。我们提出了一种基于模型知识和可解释人工智能(XAI)的反应性方法来减少模型对有害特征的依赖。通过引入反应性,我们演示了在 P-ClArC(Projective Class Artifact Compensation)中的具体实现方法 R-ClArC(Reactive Class Artifact Compensation),通过在控制环境(FunnyBirds)和现实世界数据集(ISIC2019)上进行严格实验,我们展示了引入反应性可以最小化应用修正的不利影响,同时确保对偶然特征的依赖程度较低。
Apr, 2024