人工智能中的多样性与包容性
本研究提出了一种利用生成人工智能 (GenAI) 进行基于角色的模拟的工具的框架愿景,旨在促进需求分析过程中对多样化用户需求的表示,从而为人工智能软件的开发过程提供详细的用户叙述,以发展一种包容性的人工智能范式,确保未来的技术进步符合多样人类群体的需求。
Dec, 2023
人工智能的普遍存在和多样性需要在其设计中考虑到公平、信任和透明性的多样性和包容性原则,然而,这些考虑往往被忽视,导致偏见、歧视和不可信任的问题。本研究通过系统回顾挖掘了与人工智能中的多样性和包容性相关的挑战和解决方案,研究结果包括 55 个关于多样性和包容性的独特挑战和 33 个解决方案,以及 24 个关于使用人工智能来增强这些实践的独特挑战和 23 个解决方案。该研究将帮助研究人员和从业者更好地理解这些问题,并在未来的人工智能系统中融入这些原则。
Jul, 2023
开发人工智能系统应当考虑与整合多样性和包容性原则,本研究旨在解决如何获取和捕捉多样性和包容性需求对人工智能系统的不足进行综合数据搜集和综合分析。
Nov, 2023
通过身份的视角,本论文探讨了人工智能(AI)与身份的交叉领域,以理解 AI 开发和应用中的偏见、不平等和伦理考虑,并提出了通过身份视角培养更具包容性和负责任的 AI 生态系统的综合方法。
Feb, 2024
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020
介绍了 “多元文化感知” 机器人的概念,讨论了需要开发计算模型来嵌入具有多元文化意识的机器人的必要性,最终讨论了可能的技术解决方案,基于本体论和贝叶斯网络,以前一个具有多元文化能力的机器人为例。
Jul, 2022
AI Fairness 领域存在多种理解和多样化的公平概念,对此,本文提出了一种基于上下文和以社会为中心的方法来帮助项目团队更好地识别、减轻和处理人工智能项目流程中出现的不公平偏见和歧视,并讨论了如何通过自我评估、风险管理和公平准则的文档化来实现 AI 公平原则。
Feb, 2024
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
本文介绍了一项试点工作坊的初步成果,该工作坊旨在通过免费开放的硬件和软件、开放教育资源和替代教育计划,促进发展中国家儿童的人工智能和机器人学的多样性和包容性。
Mar, 2022