评估与语言机器人互动的标准:以尊重为视角
将大型语言模型 (LLM) 与社交机器人整合在一起存在一系列独特的伦理挑战和社会影响。本研究旨在识别这两种技术结合时出现的伦理考虑。使用 LLM 进行社交机器人可能带来益处,如实现自然语言开放领域对话。然而,这两种技术的交叉也引发了与错误信息、非语言线索、情绪干扰和偏见有关的伦理关注。机器人的物理社交化特征增加了复杂性,因为基于 LLM 的社会人工智能的伦理危害,如幻觉和错误信息,由于物理社交化对社会知觉和交流的影响,可能会更加严重。为了解决这些挑战,本研究采用了一种基于实证设计正义方法的方法,重点关注通过定性共同设计和交互研究以识别社技术伦理考虑。研究的目的是识别与 LLM 作为人形社交机器人界面的共同设计和交互过程相关的伦理考虑,并评估在 LLM 和社交机器人设计交叉领域中如何使用设计正义方法。研究结果揭示了在四个概念维度中出现的伦理考虑的映射:交互、共同设计、服务条款和关系,并评估设计正义方法在 LLM 和社交机器人交叉领域中的实证运用。
Jun, 2024
本文探讨了如何将类人情感和伦理考虑整合到大型语言模型(LLM)中,并通过协作式 LLM 对八种基本人类情感进行建模,以及通过自我监督学习算法与人类反馈指导在 LLM 中嵌入潜在的伦理维度。利用该方法,LLMs 能够进行自我评估和调整以符合伦理准则,并提高其生成与情感共鸣和伦理一致的内容的能力。所提出的方法和案例研究展示了 LLMs 超越纯文本和图像生成,进入共情互动和有原则决策领域的潜力,并在情感意识和伦理意识的 AI 系统发展中树立了新的范例。
Apr, 2024
介绍了 RoleInteract,这是第一个旨在系统评估角色扮演对话代理在个体和社交互动组别两个级别上社交性的基准。从各种来源中构建了这个基准,共涵盖了 500 个角色和超过 6,000 个问题提示以及 30,800 个多轮角色扮演话语。通过在主流开源和闭源 LLMs 上进行全面评估,发现在个体水平上表现出色的代理并不意味着其在群体水平上的熟练程度,并且个体的行为可能会受到群体内其他代理的影响而发生漂移。RoleInteract 上的实验结果证实了它作为评估角色扮演对话代理社交互动的测试平台的重要性。该基准在此 https URL 上可公开访问。
Mar, 2024
通过探讨语言学习模型的安全威胁,本文全面研究了一系列涉及伦理道德的挑战,包括数据安全、隐私保护等问题,提出了一种定制的评估工具,用于加强语言学习模型的后端系统,并在测试阶段评估其伦理维度与社会伦理价值之间的一致性。
Jan, 2024
大型语言模型在社交科学研究和实际应用中的作用被不断拓展,然而在与人类和其他代理进行交互时,这些模型展现了一系列人类类似的社交行为,同时也存在一些行为差异,因此需要进一步研究和发展评估协议,以直接应用这些模型来模拟人类行为。
Dec, 2023
将社会透明性框架扩展至大型语言模型,以解决其在敏感领域如心理健康方面可能带来的社会错误归因和情感操纵等问题,并通过引入第五个问题来促进其设计者和用户之间对于社会归属的明确理解,以促进以伦理负责的方式开发和使用基于大型语言模型的技术。
Mar, 2024
本文全面调查了与大型语言模型(LLMs)相关的伦理挑战,从长期存在的问题,如侵犯版权、系统性偏见和数据隐私,到新兴问题,如真实性和社会规范。我们批判性地分析了现有研究,旨在理解、审查和减轻这些伦理风险。我们的调查强调了将伦理标准和社会价值融入 LLMs 的开发中,从而引导负责任和道德对齐的语言模型的发展。
Jun, 2024
大型语言模型在培养有同理心的对话、构建和谐社会关系以及发展有帮助的人工智能方面具有至关重要的作用。本研究通过实证调查了大型语言模型在生成有同理心的回应方面的性能,并提出了三种改进方法:语义上下文学习、两阶段交互生成和与知识库的结合。广泛的实验证明,我们的方法能够显著改善大型语言模型的性能,在自动评估和人工评估方面达到最先进的水平。此外,我们还探索了 GPT-4 模型模拟人工评估者的可能性。
Oct, 2023