仿真:基于人类模仿的协作决策
应用大型语言模型(LLMs)在各种任务和社会模拟中取得了显著进展,但它们在任务导向的社会背景中的协调能力尚未得到充分探索。为了弥合这一差距,我们引入了协作生成代理,为基于 LLMs 的代理赋予一致的行为模式和解决任务的能力。我们将这些代理置于一个模拟的招聘会环境中进行案例研究,以审查它们的协调能力。我们提出了一个新颖的框架,赋予协作生成代理人类般的推理能力和专业技能。我们的评估结果表明,这些代理显示出有希望的性能。然而,我们也发现了限制,阻碍了它们在更复杂的协调任务中的效果。我们的工作对于 LLMs 在任务导向的社会模拟中的作用和发展提供了有价值的见解。
Oct, 2023
提出了一种基于多模态 LLM 的多智能体系统 SpeechAgents,用于模拟人类交流,并通过多智能体调优增强了 LLM 的多智能体能力,实验结果表明 SpeechAgents 可以具有一致的内容、真实的节奏和丰富的情感,同时在高达 25 个代理人的情况下表现出优秀的可扩展性。
Jan, 2024
社交机器人研究者对于多方训练的对话代理越来越感兴趣。本研究在爱丁堡节的一个月长的现场表演中使用大型语言模型(LLMs),调查了在职业剧院环境中,人类演员如何与对话代理合作创作。我们探索了即兴多方对话的技术能力和限制,并从观众和表演者的经验中提供了全面的见解。我们的 “人在环环” 的方法强调了这些 LLMs 在生成与上下文相关的回复方面的挑战,并强调了用户界面的关键作用。观众的反馈表明了对 AI 驱动的现场娱乐、人机直接互动以及对 AI 在创造力支持工具方面多样化的期望。人类演员表达了巨大的热情和不同程度的满意度,而不断演变的公众舆论则凸显了人们对于 AI 在艺术中的角色的复杂情感。
May, 2024
通过利用大规模语言模型的能力,本文提出了一套针对多样化感知的自主对话系统,该系统适应不同人群和个体,考虑到背景、个性、年龄、性别和文化等因素,对话过程由系统预设的知识库架构引导,并利用语言模型生成多样化感知的句子,通过提供精心设计的提示,融合了关于用户、对话历史、语境细节和具体指导的综合信息。我们进行了受控实验和现实世界实验来评估系统的性能,测量了一系列性能指标。
Jun, 2024
这篇论文研究 LLMs 在理解语境方面的能力,通过实验发现目前的 LLMs 模型在完成只需要二进制推断的对话时表现平庸,需要进一步研究如何使得 LLMs 适应更贴合人类意图的对话模式。
Oct, 2022
人类有倾向在周围的物体中看到类似于 “人” 的特质。这种行为被称为拟人化,并且这种拟人化趋势也出现在机器学习中,其中声称在大型语言模型中感知到类似于人类智能的特质。本立场论文通过考虑专业激励、人类偏见和一般的方法论设置,讨论了当前对人工通用智能(AGI)的追求与将人类特质过度归因于大型语言模型之间的关系。通过几项实验,我们证明在潜在空间中发现可解释的人类模式并不足为奇。另外,考虑到媒体中对人工智能的普遍描绘,我们呼吁学术界在解释和交流人工智能研究结果时要格外小心,并且要对学术诚信原则有更高的意识。
Feb, 2024