谁之过:是什么影响人们对算法伤害的反应
本文通过一项混合研究探讨了两组不同背景——有和无人工智能背景人群——对不同类型AI解释的不同看法,明确人工智能背景对解释理解产生的影响,并通过设计介入减轻消极影响。
Jul, 2021
通过建立MATCH模型,本文探讨了如何在人工智能系统中通过可信度提示进行信任建立,强调透明度和互动等技术的重要性,提出了技术设计者需要意识到用户认知过程和其潜在局限性以选择可靠的可信度提示,并定义适当的提示标准及开销,鼓励相关行业规范技术应用和预防恶意行为。
Apr, 2022
本文旨在探讨可解释人工智能是否能帮助解决自主AI系统所提出的责任问题,并得出结论,提供一系列建议如何处理算法决策的社会技术过程,并提出采用严格的法规来防止设计者逃避责任。
May, 2022
研究了基于AI解释和分布式公平性之间的关系,发现解释会影响公平感知,从而与人类对AI建议的依赖关系发生关联。该研究表明,基于特征的解释并不是改善分布式公正性的可靠机制。
Sep, 2022
通过实验,我们发现人们对于更具人类特征的机器人的判断更加接近对待人类的方式,主要受到机器的代理能力的影响,这表明人们对人和机器的差异性判断可以通过心理模型的演变来解释。
Oct, 2022
AI系统的可信发展需要多学科治理,通过关键的系统检查(如能源消耗)来全面审查其生命周期中的社会影响,以及从计算机科学、社会学、环境科学等多学科角度讨论其互相关联的社会风险和无法同时满足健康的方面,从社会伦理影响评估的角度强调了全面解决AI系统紧迫问题的必要性,以揭示其对社会的有害影响,真正实现以人为中心的可信AI。
Sep, 2023
最近的生成型AI系统展示了更先进的说服能力,并且越来越多地渗透到可以影响决策的领域。生成型AI带来了新的说服风险概况,因为它提供了相互交流和长时间互动的机会。这引起了人们对AI说服的伤害的忧虑,以及如何减轻这些伤害的需求,凸显出了对AI说服进行系统研究的需求。本文为AI说服的系统研究奠定了基础。我们首先提出了有关生成型AI的定义。我们区分了基于提供相关事实、合理推理或其他形式的值得信赖的证据的理性说服型生成型AI,以及基于利用认知偏差和启发法或者歪曲信息的操纵型生成型AI。我们还提出了AI说服伤害的一张风险图,包括经济的、身体的、环境的、心理的、社会文化的、政治的、隐私的和自主权的伤害的定义和示例。然后,我们介绍了有助于有害说服的机制图。最后,我们提供了一种用于减轻说服过程伤害的方法概述,包括用于操纵分类和红队测试的提示工程。未来工作将使这些减轻措施具体化,并研究不同类型的说服机制之间的相互作用。
Apr, 2024
研究探讨了人们对所谓“人工智能”系统的拟人描述对其自我信任评估的影响。通过定义四个拟人化类别(1. 能知性的属性,2. 动作执行能力,3. 生物隐喻,4. 交流能力),通过调查研究的方法,随机将参与者分配到查看拟人化或非拟人化系统描述的两个虚构“人工智能”系统中,我们发现参与者整体上与拟人化产品描述相比并不更倾向信任拟人化的描述。产品或系统的类型与不同拟人化类别的结合似乎对信任的影响大于仅仅拟人化语言,而年龄是唯一与人们对拟人化或非拟人化描述相关显著的人口因素。当参与者阐述他们的选择时,他们提到了诸如两害相权衡、低或高风险情境以及人的偏好主义等因素,这些因素在选择产品A和B时起到了驱动作用,而无论他们是否看到拟人化或非拟人化描述的产品。我们的结果表明,“人工智能”描述中的“拟人化”是一个整体的概念,可能对不同群体产生不同的影响,并且为关于拟人化是否导致公众对作为“人工智能”出售的系统的过度信任提供细微差别的讨论。
Apr, 2024
本研究探讨了人工智能和机器学习在决策中替代人的过程,揭示了普遍认为算法能够公正无偏的观点实际上是错误的。文章识别了人们对算法偏见反应中的三种愤怒形式,并提出了解决这些偏见的三种实际方法,以促进人工智能社区的改进。研究发现,对于算法偏见的对话有助于推动更广泛的人工智能伦理讨论。
Sep, 2024