AI 中的偏见和歧视:跨学科视角
人工智能的普遍存在和多样性需要在其设计中考虑到公平、信任和透明性的多样性和包容性原则,然而,这些考虑往往被忽视,导致偏见、歧视和不可信任的问题。本研究通过系统回顾挖掘了与人工智能中的多样性和包容性相关的挑战和解决方案,研究结果包括 55 个关于多样性和包容性的独特挑战和 33 个解决方案,以及 24 个关于使用人工智能来增强这些实践的独特挑战和 23 个解决方案。该研究将帮助研究人员和从业者更好地理解这些问题,并在未来的人工智能系统中融入这些原则。
Jul, 2023
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019
随着人工智能技术的普及,技术所带来的长期危害,如失业或威胁人类安全,引起了人们的担忧。然而,更为迫切和已存在的威胁是 AI 技术今天所面临的问题:对训练数据集中的偏见进行扩大,并迅速对边缘化的人群产生巨大的影响。政府和公共部门机构有责任与技术开发人员建立对话,并发布围绕数据标准的审慎政策,以确保数据集的多样性和防止偏见的扩大,并确保以包容为宗旨构建 AI 系统。
Sep, 2018
本文探讨了图书馆应用中人工智能所带来的偏见与不公平问题,并分析了多样性与不公平之间的关系,提出把增强多样性作为一种解决不公平问题的对策。
Mar, 2023
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着 AI 系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保 AI 系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的 AI 案例。我们对研究人员在减少 AI 模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解 AI 系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任 AI 领域的进一步讨论。
Mar, 2024
人工智能系统在临床实践中有潜力革新,包括提高诊断准确性和手术决策,并降低成本和人力。然而,需要认识到这些系统可能会延续社会不公平或表现出以种族或性别为基础的偏见。为了准确可靠地应用人工智能模型于临床环境中,理解和解决潜在的偏见至关重要。通过调查生物医学自然语言处理或计算机视觉领域的最新出版物,我们对生物医学领域中应用的偏见处理方法进行了概述,并讨论了每种方法的优势和弱点。最后,我们还回顾了从一般领域中可能应用于生物医学领域以解决偏见和提高公平性的其他潜在方法。
Feb, 2024
该研究通过对人群亚组之间的疾病分类器性能分析,发现低诊断率造成的表现差异引起了关注,进一步强调了在训练数据中嵌入的人类偏见可能会放大现有的健康差异,并探讨了评估模型公正性的一些困难。
Jan, 2022
本文讨论了人工智能系统中的偏见问题,尤其是在涉及人类时,AI 算法反映了由于错误标记的数据来源的技术性误差。作者提出了通过实施数据质量维度以减轻偏见分类错误的潜在改进,涉及到两种性别:非二元性和跨性别者的分类。
May, 2023
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020
本文首次描述了 “物种主义偏见” 的概念,调查了几种不同的 AI 系统中的这种偏见。当前 AI 技术对动物的暴力行为进行了正常化和延续,唯一能改变这种状况的方式是 AI 公平框架扩大其范围,包括采取措施缓解物种主义偏见。
Feb, 2022