Jun, 2024

大型语言模型与社会机器人交叉领域的伦理考虑的实证设计公正方法

TL;DR将大型语言模型 (LLM) 与社交机器人整合在一起存在一系列独特的伦理挑战和社会影响。本研究旨在识别这两种技术结合时出现的伦理考虑。使用 LLM 进行社交机器人可能带来益处,如实现自然语言开放领域对话。然而,这两种技术的交叉也引发了与错误信息、非语言线索、情绪干扰和偏见有关的伦理关注。机器人的物理社交化特征增加了复杂性,因为基于 LLM 的社会人工智能的伦理危害,如幻觉和错误信息,由于物理社交化对社会知觉和交流的影响,可能会更加严重。为了解决这些挑战,本研究采用了一种基于实证设计正义方法的方法,重点关注通过定性共同设计和交互研究以识别社技术伦理考虑。研究的目的是识别与 LLM 作为人形社交机器人界面的共同设计和交互过程相关的伦理考虑,并评估在 LLM 和社交机器人设计交叉领域中如何使用设计正义方法。研究结果揭示了在四个概念维度中出现的伦理考虑的映射:交互、共同设计、服务条款和关系,并评估设计正义方法在 LLM 和社交机器人交叉领域中的实证运用。