本文探讨计算机视觉领域中,当进行看似不相关的任务(如活动识别或图像描述)训练时,模型学习偏见的问题,以及避免学习此类偏见的方法,并在CelebA数据集的属性分类任务中使用领域无关的训练技术,有效地减轻了现实世界中的性别偏见。
Nov, 2019
本文讨论贝叶斯神经网络在图片分类上的应用,发现此类应用使用的是错误的似然度。作者开发了一个描述“筛选”过程的生成模型,并与之前使用的调整后的后验概率似然度进行了基于贝叶斯思想的对比。
Aug, 2020
本研究提出了一个改进的评估协议、合理的指标和一个新的数据集,以评估现有的7种最先进的减少偏差算法的有效性。研究发现,算法利用隐藏的偏见,无法适应多种偏向,而且对调整数据集的选择非常敏感。因此呼吁社区采用更严格的评估方法。
Apr, 2021
提出一种基于贝叶斯神经网络和认知不确定性加权损失函数的方法,动态识别可能训练样本中的偏见并在训练期间对其加权,以减弱深度神经网络在视觉数据中出现的学习偏见。在偏见基准数据集和实际面部检测问题上,展示了这种方法缓解视觉偏见的潜力,并考虑了方法的优点和缺点。
Apr, 2022
在电脑视觉和自然语言处理领域中,神经网络虽然能够取得最新成果,但是其存在数据内的建模偏见,导致人工智能领域出现了公平性的研究方向,其目的为了纠正算法偏见,提出了几种基于公平性的神经网络去偏置的方法。
Nov, 2022
该研究系统地调查和表征神经网络剪枝在计算机视觉中引起偏差的现象,提出基于未压缩模型的易于使用的标准,以确定裁剪是否会增加偏差,并确定在压缩后最容易受到偏差预测影响的样本。
Apr, 2023
研究表明,梯度下降训练的神经网络具有归纳偏差,倾向于学习简单的解决方案,导致学习到与标签高度相关的简单虚假特征而非复杂的核心特征,此文介绍一种名为SPARE的方法,能够早期发现含有虚假相关性的大型分组,并利用重要性抽样来平衡组大小,从而减轻虚假关联的影响,相对于现有方法,SPARE方法的最差组准确度提高了最高达5.6%,速度提高了多达12倍。
May, 2023
该论文探讨了深度神经网络中的偏见对模型性能的影响,并提出了降低其影响的方法。论文分为两个部分,第一部分关注机器学习流程中的偏见和错误,介绍了可解释人工智能的分类和方法,并提出了一种半自动数据探索方法用于发现潜在的数据偏见。第二部分重点讨论了降低偏见对机器学习模型影响的三种方法:样式迁移数据增强、针对性数据增强和归因反馈。这些方法的目标是减少偏见对机器学习模型的影响,而不是完全消除。
Aug, 2023
通过放大相关性以及切分来发现偏见,我们的 FACTS 方法在不同的评估设置中显著改善了与相关性偏见识别的前期工作相比,接近35%的10项精确度。
Sep, 2023
该论文研究了现代深度神经网络的权重分布,探讨了深度贝叶斯神经网络后验分布的优化途径、后验质量和不确定性量化的关系、后验中模态的影响和可视化方法,以及权重空间对后验的对称性,并发布了大规模检查点数据集和代码,以帮助改进对贝叶斯后验的理解。
Oct, 2023