人工智能的拟人化:机遇和风险
研究探讨了人们对所谓 “人工智能” 系统的拟人描述对其自我信任评估的影响。通过定义四个拟人化类别(1. 能知性的属性,2. 动作执行能力,3. 生物隐喻,4. 交流能力),通过调查研究的方法,随机将参与者分配到查看拟人化或非拟人化系统描述的两个虚构 “人工智能” 系统中,我们发现参与者整体上与拟人化产品描述相比并不更倾向信任拟人化的描述。产品或系统的类型与不同拟人化类别的结合似乎对信任的影响大于仅仅拟人化语言,而年龄是唯一与人们对拟人化或非拟人化描述相关显著的人口因素。当参与者阐述他们的选择时,他们提到了诸如两害相权衡、低或高风险情境以及人的偏好主义等因素,这些因素在选择产品 A 和 B 时起到了驱动作用,而无论他们是否看到拟人化或非拟人化描述的产品。我们的结果表明,“人工智能” 描述中的 “拟人化” 是一个整体的概念,可能对不同群体产生不同的影响,并且为关于拟人化是否导致公众对作为 “人工智能” 出售的系统的过度信任提供细微差别的讨论。
Apr, 2024
人类有倾向在周围的物体中看到类似于 “人” 的特质。这种行为被称为拟人化,并且这种拟人化趋势也出现在机器学习中,其中声称在大型语言模型中感知到类似于人类智能的特质。本立场论文通过考虑专业激励、人类偏见和一般的方法论设置,讨论了当前对人工通用智能(AGI)的追求与将人类特质过度归因于大型语言模型之间的关系。通过几项实验,我们证明在潜在空间中发现可解释的人类模式并不足为奇。另外,考虑到媒体中对人工智能的普遍描绘,我们呼吁学术界在解释和交流人工智能研究结果时要格外小心,并且要对学术诚信原则有更高的意识。
Feb, 2024
利用自然语言处理技术,作者提出了 AnthroScore,一种用于测量文本中隐含人性化的自动化指标,该指标与人类对人性化的判断和社会科学文献中所描述的人性化维度相关。作者的研究表明,随着时间的推移,人性化在研究论文中逐渐增加,并且与语言模型相关的论文具有最高的人性化程度。此外,作者还发现新闻标题中的人性化水平较高,并与其引用的研究论文相比存在科学误导。AnthroScore 无需词汇表即可直接应用于各种文本来源。
Feb, 2024
本文提出了一种框架,用于描述人工智能领域中新兴的 “模仿模型” 所引发的伦理和社会问题,该模型不同于以往的模型,因为它是针对特定个体设计的,并且旨在进行交互而不仅仅是复制固定的预先计算出的行为。我们考虑了这些模型的不同应用场景,并考虑了不同参与者(包括模型的目标、模型的使用者和与之交互的实体)之间的影响。
Jul, 2022
该研究探讨引起关注的生成式语言模型在教育领域可能产生的心理社会危害,分析了与学生课堂互动相关的 15 万个 100 字的故事中生成式语言模型所产生的角色人口统计学和再现伤害,强调了生成式人工智能工具在多样化社会环境中部署和使用时对于具有边缘化和少数族裔身份的用户体验可能产生的心理社会影响的重要性。
May, 2024