- 偏见中和框架:用偏见智商(BiQ)衡量大型语言模型中的公平性
本文介绍了综合偏差中性化框架(CBNF),该框架创新性地对大型语言模型(LLMs)中的偏见进行量化和减轻,通过引入称为 BiQ 的新指标来检测、度量和减轻 LLMs 中的种族偏见,而无需依赖人口统计注释。此外,论文还展示了 Latimer - 大规模语言模型中的偏见检测: Fine-tuned KcBERT
该论文研究了大型语言模型对社会性偏见的影响,特别是在韩语环境中,通过平衡数据分布和应用去偏的正则化方法,减少种族、性别以及种族偏见。
- 方言偏见对人物品行、就业能力和犯罪预测的人工智能决策
语言模型体现了隐蔽种族主义和方言偏见,并对使用者作出不公平的建议,这对语言技术的公正和安全就具有深远影响。
- 一种以人工智能为导向的数据中心战略用于检测和减轻医疗数据集中的偏见
我们提出了一种数据为中心、模型不可知的方法来评估数据集偏倚,通过研究不同群体在小样本量下学习的便利程度(AEquity)的关系。然后我们应用 AEq 值的系统分析来识别和减轻医疗领域中已知病例的种族偏见。AEq 是一种新颖而广泛适用的度量标 - ACLAfriSpeech-200:用于临床和一般领域 ASR 的泛非洲口音语音数据集
非洲医生与患者之间的比例严重失衡,且存在语音识别算法的种族偏见和非洲口音识别的缺失问题。该研究发布了 AfriSpeech 数据集,为非洲的临床和通用领域的语音识别提供了一个公开的基准测试集和预训练模型。
- AI 生成内容的偏见:对大型语言模型所产生新闻的研究
调查了七种代表性大型语言模型生成的 AI 生成内容的性别和种族偏见,研究发现每个语言模型生成的内容存在明显的性别和种族偏见,其中 ChatGPT 生成的内容偏见最低且能够拒绝产生带有偏见的内容。
- 解决面部情感识别中的种族偏见
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样, - 美国法律意见书中种族偏见趋势
通过分析 1860 年到 2009 年超过 600 万份美国联邦和州法院案件的 GloVe 单词嵌入,研究发现几乎所有地区和时期都存在种族偏见现象,即传统黑人姓名更与 “不愉快” 术语相关,而传统白人姓名则更与 “愉悦” 术语相关,这些结果 - 审视自然语言处理工具在儿童保护服务中种族偏见的风险
通过检验 CPS 的自由文本数据,我们在文本风险预测、共指消解和命名实体识别模型中记录了一致的算法不公平性,强调了将 NLP 应用于 CPS 设置中存在潜在的算法偏见风险,并且即使它们似乎更加良性,也必须关注,这是对 NLP 算法公平性的罕 - 面部识别中的种族偏见:一项调查
该研究对人脸识别的种族偏见问题进行了全面而系统的研究,主要了解了人脸识别处理流程中涉及的影响偏见的各个方面与阶段,包括图像获取、脸部定位、脸部表示、脸部验证和识别等。同时,研究也指出了当前减少种族偏见的策略在将来的商业应用和研究中需要被考虑 - CVPR梯度注意平衡网络:通过梯度注意力缓解人脸识别的种族偏见
提出了一种新的基于梯度注意力的去偏置方法,称为 Gradient Attention Balance Network (GABN),通过将面部识别网络的梯度注意力图用于跟踪敏感的面部区域,并通过对抗性学习使不同种族的梯度注意力图趋于一致,该 - 在没有民族信息的情况下进行 NLP 模型去偏见化
本研究提出了一种去偏见的方法,利用辅助模型检测出具有偏见的数据样本并在训练过程中进行下权重处理,从而实现在没有昂贵的人口统计学注释过程的情况下缓解社会偏见。
- 词嵌入的地理负偏差预测种族敌意 —— 仅通过姓名频率
该论文研究了使用 word embeddings 进行测量种族偏见时出现的问题,结果表明需要考虑 term frequency,同时还展示了使用 black-box 模型研究人类认知和行为潜在后果。
- ICCV从新思考公共假设以减轻面部识别数据集中的种族偏见
今篇文章探讨了针对面部识别中的种族偏见问题,当前大多数方法都试图在训练过程中纠正模型中的偏见,但忽略了数据集自身所带来的种族偏见,作者实验证明,在训练中仅使用非洲面孔甚至比同等比例使用不同面孔更具公平性,并添加更多图像以提高准确性。
- FakeAVCeleb: 一种新的音视频多模态 Deepfake 数据集
针对如今深度学习技术生成的深度伪造技术的滥用所带来的严重安全和隐私问题,本研究提出了 FakeAVCeleb 这一包含视频和相应的合成唇同步伪造音频的新型多模态 Audio-Video Deepfake 数据集,其有助于打破现存音频和视频上 - 深度学习基于分割的心脏 MR 图像分析中由于数据不平衡导致的偏差调查
该研究讨论了使用神经网络建立心脏数据的图像分割模型时,数据库不平衡导致的种族偏见,提出了三种解决方案,并发现 protected group models 的使用最有效。
- CVPR通过每个受试者对抗性数据增强探索面部识别中的种族偏见
本研究提出了一种基于图像转换的敌对数据扩充方法,旨在通过转换感性种族特征的面部图像,实现每个主题的数据集平衡。实验结果表明,该方法可以减少原本不平衡的数据集中对(种族)少数群体的认知偏差,对 Softmax,CosFace 和 ArcFac - 存在偏倚嘈杂标签时的公平性评估
本论文提出了一种风险评估模型的敏感性分析框架,用于评估不同群体的标签误差对模型的预测偏差性能的影响,在两个真实的刑事司法数据集上的实验结果表明,即使观察标签中存在小的偏差也可能会对基于噪音结果的分析的结论提出质疑。
- 使用偏度感知强化学习来减少人脸识别中的偏见
通过提出自适应边界的想法,构建了一个基于深度 Q 学习的 Race Balance Network (RL-RBN) 以及两个面部识别数据集,用以研究数据和算法层面的种族偏差,实验结果表明该方法成功减小了种族偏差并且学习到了更平衡的表现。
- AAAI刑罚再犯预测中的算法偏见:因果视角
本文分析了一个犯罪预测软件工具 (COMPAS) 对美国非裔被告的偏见,使用因果推断方法来估算算法公平性的因果相关性测量指标 (FACT),得出了 COMPAS 在预测中存在着对非洲裔被告的种族偏见,并且其估算结果对未测量到的混淆因素具有鲁