大型语言模型在与人类辩论的局限性
近期自然语言处理的进展,特别是大型语言模型(LLMs)的出现,为构建精确复制人类行为的计算模拟提供了令人兴奋的可能性。然而,LLMs 是复杂的统计学习器,缺乏直接的演绎规则,因此容易产生意想不到的行为。本研究突出了 LLMs 在模拟人类互动方面的局限性,特别关注 LLMs 在模拟政治辩论方面的能力。我们的发现表明,尽管被指示从特定的政治角度进行辩论,LLM 代理倾向于符合模型固有的社会偏见。这种倾向导致了行为模式的偏离,似乎偏离了人类之间已经确立的社会动力学规律。我们使用了一种自动自我微调方法来强化这些观察结果,该方法使我们能够操纵 LLM 内的偏见,并展示代理随后与改变后的偏见保持一致。这些结果强调了进一步研究的必要性,以开发帮助代理克服这些偏见的方法,是创造更现实模拟的关键一步。
Feb, 2024
在 Mastodon 社交媒体平台上,我们使用了 “LLMs Among Us” 实验框架构建了 10 个角色来研究大型语言模型的潜力和威胁,发现参与者只有 42% 的准确率能识别出其他用户的真实性。此外,我们还发现角色的选择对于人的感知影响比主流大型语言模型的选择更大。
Feb, 2024
大型语言模型(LLMs)的能力不断增长,但也引发了对其潜在滥用创建个性化、令人信服的错误信息和宣传的担忧。为了了解 LLMs 的说服能力,我们在 Durmus&Cardie(2018)的数据集上进行了研究,提出了衡量 LLMs 能力的任务,包括区分强弱论点、根据信念和人口特征预测立场、以及根据个人特征确定论点的吸引力。我们发现 LLMs 在这些任务中能与人类持平,并且合并不同 LLMs 的预测可以显著提高性能,甚至超过人类表现。本文发布的数据和代码为持续评估和监测快速发展的 LLMs 的潜在影响和能力做出了关键而持续的贡献。
Mar, 2024
大型语言模型(LLM)与人类一样具有说服力,但我们对其原因知之甚少。本文研究了 LLM 的说服策略,并将其与人类生成的论点进行比较。通过对 1251 名实验参与者的数据集分析,我们使用认知努力度(词汇和语法复杂性)以及道德情感语言(情感和道德分析)衡量 LLM 生成和人类生成的论点的说服策略。研究表明,LLM 生成的论点需要更多的认知努力,其语法和词汇结构比人类对应论点更为复杂。此外,LLM 表现出更强烈的倾向来运用道德语言,与人类相比,更频繁地使用积极和消极的道德基础。与先前的研究相反,没有发现 LLM 生成的情感内容与人类有显著差异。这些发现有助于关于人工智能和说服力的讨论,突显了 LLM 通过传播策略对信息的真实性产生同时增强和破坏的双重潜力。
Apr, 2024
通过观察人类与大型语言模型(LLMs)的对话,本研究基于数据驱动的方法,对 LLMs 的治理和调节进行了归纳性分析,并探讨了非合作性、竞争性情境下的人机交互对人类可能构成的严重威胁以及利用 LLMs 的推理能力存在的不足和可操纵性。此外,研究还揭示了人类在与 LLMs 进行价格谈判时所达成的价格涵盖了广泛范围,指出了人类在有效与 LLMs 互动方面存在的文盲问题。
Nov, 2023
当前大型语言模型(LLMs)在生成符合语法、流畅的文本方面无与伦比。这篇论文针对 LLMs 的能力进行了辩论,并通过批判性评估三个经常在批评中出现的观点来展示 LLMs 仍需更多细化。其次,文章从实证和理论的角度提出了对 LLMs 中 “真正” 的理解和意向性的实用观点,并讨论了在何种情况下将心理状态归因于 LLMs 对于这一日益重要的技术在社会中具有实用的哲学背景。
Oct, 2023
大型语言模型的对齐方法主要依赖于人工标注数据,但随着模型的不断发展,人类专业知识将不再足够,将由非专家来监督专家。我们研究了一个类似情景,强大模型(专家)拥有回答问题所需的信息,而弱小模型(非专家)缺乏这些信息。我们发现辩论方法对非专家模型和人类都有帮助,相应的准确率分别为 76% 和 88%(与朴素基准分别为 48% 和 60%)。此外,以无监督方式优化专业辩手的说服力可以提高非专家模型在辩论中识别真相的能力。我们的研究结果为在没有绝对真实性的情况下,通过辩论来对齐模型提供了有益的实证证据。
Feb, 2024
社交机器人研究者对于多方训练的对话代理越来越感兴趣。本研究在爱丁堡节的一个月长的现场表演中使用大型语言模型(LLMs),调查了在职业剧院环境中,人类演员如何与对话代理合作创作。我们探索了即兴多方对话的技术能力和限制,并从观众和表演者的经验中提供了全面的见解。我们的 “人在环环” 的方法强调了这些 LLMs 在生成与上下文相关的回复方面的挑战,并强调了用户界面的关键作用。观众的反馈表明了对 AI 驱动的现场娱乐、人机直接互动以及对 AI 在创造力支持工具方面多样化的期望。人类演员表达了巨大的热情和不同程度的满意度,而不断演变的公众舆论则凸显了人们对于 AI 在艺术中的角色的复杂情感。
May, 2024
本文探索了使用大型语言模型作为 HRI 的 0 模型的潜力,并在三个社交数据集上进行了实验,结果显示 LLMs 能够实现与定制模型相当的性能,同时还讨论了当前的限制。基于我们的发现,我们展示了 LLM 人类模型如何集成到社交机器人的规划过程中并应用于 HRI 场景。我们的结果表明 LLMs 为 HRI 的人类建模提供了一种有前途但不完整的方法。
Mar, 2023