愤怒的技术:人工智能中的偏见
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着“多维面”等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
通过仿真研究纽约市“停止、质问和搜身”数据集,我们评估了在基于数据的算法决策规则受到人类偏见决策者的训练数据上训练的情况下,是否必然反映此偏见的民间智慧,并且发现算法性质可以反转此偏见取决于原因。
Sep, 2019
论文旨在探讨社会正义与公平问题下,机器学习和预测模型的应用。虽然近期技术有所突破,但在决策自动化过程中,需考虑公正性等社会因素,而这些并无法简单归结为纯预测模型。因此,论文连通“公正的机器学习”与政治哲学中的“理想与非理想方法论”之间的关系,探讨了解决方案的局限性,并提出未来研究方向。
Jan, 2020
本文阐述了人类认知偏差在人工智能领域中的重要性,并提出了在学习算法中结构上实施认知偏差以及为选择具有道德价值的社会或行为特征的偏向训练刺激应用过滤机制,结合七个具体的偏见实现情景案例,将来自认知科学和伦理学的启示应用于人工智能领域,是对重新评估机器偏见道德意义的探索和实施认知偏差到机器中的首次尝试。
Mar, 2022
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本文主张人工智能系统需要模拟、理解、甚至复制人类的认知偏差,在人机协作中扮演更加重要的角色,并提出了关于人类认知偏差和人工智能之间相互作用的研究议程及三个感兴趣的广泛领域,并为具有更好对人类偏见的人工智能系统的设计方向提出了研究方向。
Oct, 2022
本研究探讨人们如何通过责备的方式来反应人工智能(AI)系统可能对人们带来的伤害,并研究了多种因素对人们对机器、设计者和用户的反应态度的影响。三项研究结果表明,人们归咎于不同的行动者,而不是AI系统的可解释性决定了人们的反应态度。
Apr, 2023
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着AI系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保AI系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的AI案例。我们对研究人员在减少AI模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解AI系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任AI领域的进一步讨论。
Mar, 2024