人工智能中的种族主义偏见 -- 人工智能应用如何使得对动物的歧视和不公平结果持续存在
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着 AI 系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保 AI 系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的 AI 案例。我们对研究人员在减少 AI 模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解 AI 系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任 AI 领域的进一步讨论。
Mar, 2024
本文分析了英语遮蔽语言模型(如 BERT)中存在的针对非人动物的种族主义偏见,研究发现在使用非人动物的名称时,预训练的遮蔽语言模型可能倾向于使用侮辱性的语言,将不良词汇与非人动物联系起来。
Mar, 2022
人工智能系统在临床实践中有潜力革新,包括提高诊断准确性和手术决策,并降低成本和人力。然而,需要认识到这些系统可能会延续社会不公平或表现出以种族或性别为基础的偏见。为了准确可靠地应用人工智能模型于临床环境中,理解和解决潜在的偏见至关重要。通过调查生物医学自然语言处理或计算机视觉领域的最新出版物,我们对生物医学领域中应用的偏见处理方法进行了概述,并讨论了每种方法的优势和弱点。最后,我们还回顾了从一般领域中可能应用于生物医学领域以解决偏见和提高公平性的其他潜在方法。
Feb, 2024
本文阐述了人类认知偏差在人工智能领域中的重要性,并提出了在学习算法中结构上实施认知偏差以及为选择具有道德价值的社会或行为特征的偏向训练刺激应用过滤机制,结合七个具体的偏见实现情景案例,将来自认知科学和伦理学的启示应用于人工智能领域,是对重新评估机器偏见道德意义的探索和实施认知偏差到机器中的首次尝试。
Mar, 2022
随着人工智能技术的普及,技术所带来的长期危害,如失业或威胁人类安全,引起了人们的担忧。然而,更为迫切和已存在的威胁是 AI 技术今天所面临的问题:对训练数据集中的偏见进行扩大,并迅速对边缘化的人群产生巨大的影响。政府和公共部门机构有责任与技术开发人员建立对话,并发布围绕数据标准的审慎政策,以确保数据集的多样性和防止偏见的扩大,并确保以包容为宗旨构建 AI 系统。
Sep, 2018
本论文旨在填补现有机器学习公平框架未全面测量或减轻由于排外主义导致的伤害的概念差距,并通过分析排外主义对社交媒体和推荐系统、医疗保健、移民、就业以及大型预先训练模型的潜在影响,推动未来人工智能系统的包容性设计。
Dec, 2022
该研究通过对人群亚组之间的疾病分类器性能分析,发现低诊断率造成的表现差异引起了关注,进一步强调了在训练数据中嵌入的人类偏见可能会放大现有的健康差异,并探讨了评估模型公正性的一些困难。
Jan, 2022