AI 服务的可组合偏见评级
基于食品行业中营养标签的成功,本文旨在评估和评级 AI 服务的用户信任度,并提出了面向现实世界场景如健康和食品建议的原则性、多模式、因果关系评级方法的挑战和远景。
Feb, 2023
本文提出了 AI as a Service 所存在的问题:由于公平性是具有上下文敏感性的,基于用户自主程度的 AI 服务分类可以导致偏见或在最终用户应用中被认为是有害的。
Feb, 2023
本文阐述了人类认知偏差在人工智能领域中的重要性,并提出了在学习算法中结构上实施认知偏差以及为选择具有道德价值的社会或行为特征的偏向训练刺激应用过滤机制,结合七个具体的偏见实现情景案例,将来自认知科学和伦理学的启示应用于人工智能领域,是对重新评估机器偏见道德意义的探索和实施认知偏差到机器中的首次尝试。
Mar, 2022
本文主张人工智能系统需要模拟、理解、甚至复制人类的认知偏差,在人机协作中扮演更加重要的角色,并提出了关于人类认知偏差和人工智能之间相互作用的研究议程及三个感兴趣的广泛领域,并为具有更好对人类偏见的人工智能系统的设计方向提出了研究方向。
Oct, 2022
通过基于在线游戏的实验,研究了使用不同 DSS 特征对人类反应的影响,显示参与者倾向于根据 DSS 建议打分,表现与游戏难度和 DSS 准确性有关,但他们的满意度并不完全与准确性相关。
Mar, 2022
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着 AI 系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保 AI 系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的 AI 案例。我们对研究人员在减少 AI 模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解 AI 系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任 AI 领域的进一步讨论。
Mar, 2024
本研究旨在探讨可解释人工智能对自动化偏见的潜在影响。利用一个酒店评价分类的在线实验,实验证明可解释 AI 可以降低自动化偏见,从而帮助设计和开发安全的混合智能系统。
Apr, 2022
本文探讨了图书馆应用中人工智能所带来的偏见与不公平问题,并分析了多样性与不公平之间的关系,提出把增强多样性作为一种解决不公平问题的对策。
Mar, 2023
通过评估情感分析系统(SAS)在黑盒环境中,加入人工生成的聊天机器人数据集以及往返翻译设置,我们发现这些设置更真实地展现了 SAS 在现实中的表现,揭示了 SAS 在聊天机器人数据中存在更多偏见,而使用西班牙语和丹麦语作为中介语言往返翻译能减少人工生成数据中的偏见(最多可减少 68%),而在合成数据中则会增加偏见!这些发现将帮助研究人员和从业人员完善 SAS 测试策略,增强对 SAS 的信任,因为 SAS 被认为是全球性更为关键的应用的一部分。
Jan, 2024
在人工智能逐渐融入决策过程的时代,本研究论文综合探讨了偏见和公平性问题,特别着重研究它们在银行业中的影响,其中由人工智能驱动的决策具有重大的社会影响。在这个背景下,公平性、可解释性和人类监督的无缝融合至关重要,最终形成了常常称为 “负责任人工智能” 的概念。这强调了在开发企业文化时解决偏见的关键性,以便与人工智能法规和普世人权标准相一致,特别是在自动决策系统领域。现今,将伦理原则纳入到人工智能模型的开发、训练和部署中对于遵守即将出台的欧洲法规和促进社会公益至关重要。本论文以了解偏见、减少偏见和考虑偏见三个基本支柱为结构,验证了这些贡献在与 Intesa Sanpaolo 的实际应用场景中的实用性。这项合作努力不仅加深了我们对公平性的认识,还提供了实际工具来负责任地实施基于人工智能的决策系统。遵循开源原则,我们已发布了 Bias On Demand 和 FairView 作为易于使用的 Python 包,进一步推动了 AI 公平领域的进展。
Jan, 2024