关于对话系统中拟人化现象的幻觉
本文研究了对话系统的人格偏见,并分析了不同社会阶级、性取向、种族和性别的人物角色。研究者提出将对话系统的角色升级到拥有更多人文特征以更好的迎合用户的趋势可能会产生一些偏见。他们还介绍了一个开源框架 UnitPersonaBias,以探索和聚合对话系统中的人格偏见。此外,研究者还发现与不使用人格形象相比,采用人格形象可能会减少有害的回应。但是,人格选择会影响生成响应中危害程度,因此在实际应用前应该进行系统评估。
Apr, 2021
研究人员发现,人们将人性化特征赋予 AI 系统的倾向会严重影响其在法律层面上的合规性,并对人类与 AI 之间的互动方式产生根本性的改变,实现潜在的操纵和负面影响。为了提高 AI 系统的可靠性,我们提出了一种谨慎使用人性化策略的保守策略。
May, 2023
研究探讨了人们对所谓 “人工智能” 系统的拟人描述对其自我信任评估的影响。通过定义四个拟人化类别(1. 能知性的属性,2. 动作执行能力,3. 生物隐喻,4. 交流能力),通过调查研究的方法,随机将参与者分配到查看拟人化或非拟人化系统描述的两个虚构 “人工智能” 系统中,我们发现参与者整体上与拟人化产品描述相比并不更倾向信任拟人化的描述。产品或系统的类型与不同拟人化类别的结合似乎对信任的影响大于仅仅拟人化语言,而年龄是唯一与人们对拟人化或非拟人化描述相关显著的人口因素。当参与者阐述他们的选择时,他们提到了诸如两害相权衡、低或高风险情境以及人的偏好主义等因素,这些因素在选择产品 A 和 B 时起到了驱动作用,而无论他们是否看到拟人化或非拟人化描述的产品。我们的结果表明,“人工智能” 描述中的 “拟人化” 是一个整体的概念,可能对不同群体产生不同的影响,并且为关于拟人化是否导致公众对作为 “人工智能” 出售的系统的过度信任提供细微差别的讨论。
Apr, 2024
通过收集大约 900 个对话样本,我们发现用于训练对话系统的一些常见数据源中,20-30%的话语被认为机器不可能说出来。此外,我们还研究了建模配置如何影响输出许可,并讨论了构建不那么虚假拟人对话系统的影响。
Oct, 2022
最近在大型语言模型的突破使它们能够遵循自由格式的指令,其中包括模仿对话中一般或特定人口群体。本文系统研究了 “人物偏见”,将其定义为对不同人物采用敏感有害的对话模型行为的问题。我们将人物偏见分为有害表达和有害协议的偏见,并建立了一个全面的评估框架,以衡量人物偏见的五个方面:冒犯性、毒性,关注度,刻板协议和有害协议。此外,我们建议通过对通用人物数据集进行全面调查,该数据集包含全面的一般和特定模型人物列表,从而全面研究人物偏见。通过对包括 Blender、ChatGPT、Alpaca 和 Vicuna 在内的四个不同模型进行基准测试,我们的研究揭示了这些对话系统中显著的人物偏见。我们的研究结果强调了重新审视人物特点在对话代理程序中的使用的迫切需求,以确保其安全应用。
Oct, 2023
研究通过行为和交流的角度,探讨了人机互动中性别偏见的影响,特别关注用户与对话代理的互动中的感知和语言风格,以及对话代理的性别设计如何加强和延伸性别偏见,并就对话代理的性别分配的适宜性和促进设计中性别平等提出伦理设计建议。
Jan, 2024
探讨机器对话系统研究中的潜在道德问题,包括数据驱动系统中的隐性偏见、对抗性案例的出现、隐私侵犯的潜在来源、安全问题、增强学习系统的特殊考虑以及可重复性问题,并建议需要进一步研究的领域。
Nov, 2017