基于大语言模型的非合作环境中的多智能体诗歌生成
通过对基于大语言模型的自主代理的综合调查,本文提出了一个统一框架来概括以往研究,并总结了在社会科学、自然科学和工程领域中应用大语言模型的人工智能代理的各种应用及评估策略。同时,我们还讨论了该领域的挑战和未来方向。
Aug, 2023
NLP系统在多智能体社会中能够模拟人类协作智能吗?本文通过实验和理论结合,研究了当代NLP系统之间的协作机制,发现使用不同的社交行为,从积极辩论到内省反思,LLM代理能够高效完成任务,并表现出类似人类的社交行为,这为LLM的协作机制提供了进一步的研究启示。
Oct, 2023
应用大型语言模型(LLMs)在各种任务和社会模拟中取得了显著进展,但它们在任务导向的社会背景中的协调能力尚未得到充分探索。为了弥合这一差距,我们引入了协作生成代理,为基于LLMs的代理赋予一致的行为模式和解决任务的能力。我们将这些代理置于一个模拟的招聘会环境中进行案例研究,以审查它们的协调能力。我们提出了一个新颖的框架,赋予协作生成代理人类般的推理能力和专业技能。我们的评估结果表明,这些代理显示出有希望的性能。然而,我们也发现了限制,阻碍了它们在更复杂的协调任务中的效果。我们的工作对于LLMs在任务导向的社会模拟中的作用和发展提供了有价值的见解。
Oct, 2023
大型语言模型的出现极大地推进了逼真互动代理的模拟。本研究提出了一种名为Affordable Generative Agents(AGA)的框架,通过代理-环境和代理-代理层面上的生成,实现了具有可信度和低成本的互动。在多个环境中进行的广泛实验展示了我们提出的框架的效果和效率。通过对LLM代理中出现的可信行为机制进行深入分析,我们发现代理只能在固定环境中生成有限的行为,从中了解促进新型互动行为的方法。
Feb, 2024
我们提出了一个新的通信代理框架,结合多智能体系统和环境反馈机制,提供了一种可扩展方法来探索合作行为。尽管参数较少,我们的TinyAgent-7B模型表现与GPT-3.5相当,这意味着大规模语言模型在效率和效果上取得了实质性改进。
Apr, 2024
在人工智能领域,大型语言模型(LLM)代理通过自然语言提示来执行任务,消除了显式重新训练或精调的需要,尤其是在诸如常识问题和是/否查询等固定答案任务中。然而,将上下文学习应用于开放性挑战,例如诗歌创作,由于提供的示例的全面性和代理的理解问题内容的能力存在显著限制,导致输出与预期结果经常不一致。为了解决这一差距,我们的研究引入了用于LLM多代理的记忆共享(MS)框架,该框架利用实时内存存储和检索系统增强上下文学习过程。该系统中的每个“记忆”都捕捉了LLM代理提出的查询以及相应的实时响应,将来自各种相似代理的这些记忆聚合到所有代理共享的记忆池中。该框架不仅帮助代理识别特定任务的最相关示例,而且通过其他代理应用未来的记忆评估其潜在效用。对涉及代理特定功能的三个不同领域进行的实证验证表明,MS框架显著提高了代理在开放性问题上的性能。此外,我们还讨论了在MS中哪种类型的记忆池和检索策略可以更好地帮助代理,并提供了MS的未来发展方向。代码和数据可在此https URL获取。
Apr, 2024
近年来,大型语言模型在问题回答、算术问题解决和诗歌创作等各种任务中展示了强大的能力。尽管关于以大型语言模型为代理的研究表明它可以应用于强化学习并取得不错的结果,但将基于大型语言模型的强化学习扩展到多智能体系统并不容易,因为许多方面,如智能体之间的协调和通信,在单智能体的强化学习框架中没有得到考虑。为了激发更多关于基于大型语言模型的多智能体强化学习的研究,本文调查了现有的基于大型语言模型的单智能体和多智能体强化学习框架,并提供了未来研究的潜在方向。特别关注多智能体共同目标合作任务和它们之间的通信,还考虑了语言组件在框架中实现的人机交互场景。
May, 2024
评估自动生成诗歌的多样性,通过比较自动生成诗歌的结构、词汇、语义和风格等维度的分布与人类诗歌的分布,并考察不同模型类型和微调类型,发现当前的自动生成诗歌系统在多个维度上缺乏多样性,但风格条件和字符级建模明显增加了多样性。这些限制可用于更加多样化的未来诗歌生成模型。
Jun, 2024
本研究针对自动诗歌生成中缺乏多样性的问题,提出了一种强调非合作互动的社会学习框架,从而增强生成结果的多样性和新颖性。实验表明,该框架使训练型代理的诗歌生成多样性提高了3.0-3.7个百分点,新颖性提高了5.6-11.3个百分点,显示出社会学习过程中对创意任务的重要影响。
Sep, 2024