公平提示:人工智能作为游戏玩家
本文提出了一种用于优化 AI 模型的框架和一些示例方法,根据人类政策制定者的偏好来平衡公平性、模型准确性等目标之间的平衡,以此来减少偏差和不公平。
Feb, 2020
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着 AI 系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保 AI 系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的 AI 案例。我们对研究人员在减少 AI 模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解 AI 系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任 AI 领域的进一步讨论。
Mar, 2024
本文概述了在使用人工智能算法时如何识别、测量和提高算法公正性的主要概念,并讨论了算法偏见和不公正的原因、公正的常见定义和度量以及预处理、处理中和后处理机制,最终回顾了几个新兴的算法公正性研究子领域。
Jan, 2020
研究 OpenAI 公司开发的大型语言模型 AI 代理,通过多项实验,发现 AI 代理在决策任务时表现出 self-interest 和一定程度的利他行为,并且仅有最高级别的 AI 代理会在 dictator game 中表现出较慷慨的利他行为。
Jan, 2023
使用最先进的三个聊天机器人进行 78 个实验,研究其对独裁者游戏决策的能力,发现只有 GPT-4 能准确捕捉到行为模式,包括自利、不公不平等和完全利他三类,但 GPT-4 普遍高估了他人关注行为,并夸大了不公不平等和完全利他者的比例,这对人工智能开发者和用户具有重要影响。
Jul, 2023
本文总结和评估了追求人工智能系统公正性的各种方法和技术,提出了定义、衡量和预防人工智能偏见的实用指南,并针对评估人工智能系统偏见的一些简单但常见方法提出了更为复杂和有效的替代方案。此外它还提供了一个共同的语言来解决领域内普遍存在的争议和混乱。它描述了涉及人工智能公正性的各种权衡,并提供了实用建议来平衡这些权衡。本文提供了关于人工智能从业者、组织领导、政策制定者的讨论和指南,以及为技术观众提供更多相关资料的链接。通过举例清晰阐述了本文中所提到的概念、挑战和建议。
Jul, 2022
本文综述了应用于游戏中的人工智能的伦理问题,通过情感循环的组成部分研究了 AI 在游戏开发中所面临的伦理挑战,包括情感的伦理边界,隐私与安全游戏空间之间的权衡,以及透明度与所有权等方面的问题。并呼吁开放性对话和行动,以确保保护用户并引导开发人员为他们的客户提供更安全、更好的体验。
May, 2023
人工智能(AI)在招聘、金融、医疗和司法等领域展示了卓越的能力,然而,AI 系统的偏见引发了伦理和社会关切,强调了有效的公平性测试方法的必要性。本文回顾了当前关于公平性测试的研究,特别是其通过基于搜索的测试的应用。我们的分析突出了在解决 AI 系统偏见方面的进展和改进领域。未来的研究应专注于利用已建立的基于搜索的测试方法学进行公平性测试。
Nov, 2023
我们探索了一种人机交互界面的设计,使得普通用户可以识别潜在的公平问题并在贷款决策的背景下解决它们,为评判和解决人工智能的公平性做出贡献。
Apr, 2022