- ICML改进数据集简化中的伪相关性
调研发现,数据集压缩过程中原始数据集中的颜色和背景偏差会被放大,而污染偏差会被抑制;为减少偏差放大,我们提出了一种基于样本重新加权方案的简单但高效方法,实证结果显示其有效性高于最先进的去偏方法。
- 机器学习系统中隐藏反馈环效应的数学模型
广泛部署面向社会规模的机器学习系统需要深入了解这些系统对环境产生的长期影响,包括失去可信度、偏见放大和违反 AI 安全要求。我们引入了一种重复学习过程,共同描述了一些与意外隐藏反馈循环相关的现象,如错误放大、引发的概念漂移、回声室等。该过程 - 隐私保护的剪切 SGD 算法:偏差放大和修正
本文研究了在预测性场景下剪裁随机梯度下降(SGD)算法的收敛性质,分析了其可能产生的偏差放大现象,并提出了两种解决方案和相应的实验验证。
- CVPR深度生成模型是否会放大未来模型中的偏见?
通过研究深度生成模型对未来计算机视觉模型中潜在社会偏见的影响,本文探讨了如果使用生成的图像作为训练数据,是否会导致偏见放大,从而造成有害内容的传播。然而,与预期相反的是,我们的研究结果显示,在特定任务中出现偏见缓解的情况,这可能与图像生成中 - 从差分隐私中减弱语言模型微调的偏见
机器学习中公平性和隐私性是两个重要的价值观,通过差分隐私机制来限制个体训练数据对结果模型的影响,但我们发现差分隐私会加剧性别、种族和宗教偏见,而反事实数据增强法可以缓解差分隐私所引发的偏见扩大,因此差分隐私和反事实数据增强法可以同时维护公平 - EMNLP评估性别中性预训练视觉与语言模型的偏见和公平性
在这项研究中,我们以性别偏见为案例研究,通过量化预训练和微调对三类视觉与语言模型中的偏见放大进行分析,研究了这两个学习阶段之间的联系,并评估了偏见放大对模型性能的影响。总体来说,我们发现预训练和微调中的偏见放大是相互独立的。接着,我们研究了 - 文本生成图像中的偏差放大悖论
本文研究了文本到图像领域中的偏差放大现象,通过比较训练和生成的图像中的性别比例,发现模型似乎放大了训练数据中存在的性别职业偏见。然而,我们发现放大主要归因于训练字幕和模型提示之间的差异。当我们考虑到训练和生成所使用的文本之间的各种分布差异后 - 生成式语言模型中意外自我加强学习放大的语言偏见 —— 一个视角
探讨生成式语言模型在数字应用中的广泛使用可能会不经意地引发自我加强学习循环,从而放大现有的语言偏见,这可能会影响未来几代人的语言和认知发展,并强调有必要进行严格的研究,以确保这些强大技术的有效、安全和公平使用,同时保持人类语言的丰富性和多样 - BeMap:用于公平图神经网络的平衡信息传递
本文针对图神经网络中信息传递中的不公平性问题,提出了一种名为 BeMap 的方法,该方法通过平衡感知采样策略来平衡不同人口群体之间的 1-hop 邻居节点数,从而解决信息传递过程中的偏见放大问题,实验证明该方法有效降低偏见同时保持分类准确性 - 图神经网络在推荐系统中的偏见放大比较分析
本研究通过文献综述和行为分析,对比了基于 GNN 的不同算法和现有方法的偏见影响,并旨在探索最小化模型性能影响的适当解决方案。
- 男性也会洗衣服:多属性偏见放大
本文拟解决了计算机视觉中的社会偏见问题,主要集中于模型使用多种属性注释时会放大潜在偏见、评估指标的局限性以及提供建议的新度量标准和方法。
- ECCV面部属性分类的公平感知梯度修剪方法 FairGRAPE
本文提出了一种新的剪枝方法,称为公平感知梯度剪枝方法(FairGRAPE),以平衡不同子组在神经网络压缩过程中可能存在的影响,该方法在面部属性分类任务中对四个数据集(FairFace,UTKFace,CelebA 和 ImageNet)进行 - EMNLP压缩多语言机器翻译模型遗漏了什么?
本研究分析了压缩技术对多语言神经机器翻译模型性能的影响,发现压缩方法会导致低资源语言的性能显著下降,甚至会放大内在的性别和语义偏差。
- 偏见放大的系统研究
机器学习中的偏见放大是一个常见的问题,需要加深对于模型机制的理解,本研究通过控制性实验发现,偏见放大可能由于模型准确度、能力、自信度以及训练数据量等因素产生,同时也可能与分组和分类任务的难易程度相关,研究结果对指导训练机器学习模型具有借鉴意 - 减轻偏见放大的去混淆推荐
该论文研究了推荐系统中偏见放大的原因,提出了一种基于因果模型的 Deconfounded Recommender System(DecRS)来解决这一问题,并在两个基准测试上验证了其优越性。
- ICML方向偏差放大
该篇研究关注机器学习系统中偏见放大的问题,提出了一种新的偏差放大度量方法,并分析了其技术假设和规范意义,对其测量提出了建议。
- 机器翻译中算法偏见对语言复杂性的影响
本文研究机器翻译中偏见放大的问题,探究算法的偏见增强对语言是否会产生贫化作用。作者测试了不同的数据驱动机器翻译范式,并发现所有测试的语言对中,都存在词汇和形态上的丧失。
- ICLR特征偏差放大
本研究通过分析和实验,展示了在分类器中无法避免的一些偏见和可以上保准确认定的其他偏见来源,并提出了两种新的解决方法。这些方法可以明显降低偏见而不损害准确性,甚至可以取得一些准确度的提高。
- AAAI人工智能系统中的偏见放大
随着人工智能技术的普及,技术所带来的长期危害,如失业或威胁人类安全,引起了人们的担忧。然而,更为迫切和已存在的威胁是 AI 技术今天所面临的问题:对训练数据集中的偏见进行扩大,并迅速对边缘化的人群产生巨大的影响。政府和公共部门机构有责任与技