信息仪式:与灯共生的后人类体验
本文研究了多模态经验、语言学习和具体到抽象的词汇发展历程,并提出了一种结合当代模型和基于词汇的模型的语义模型,并使用机器人对话系统来学习语言。
May, 2021
社交机器人研究者对于多方训练的对话代理越来越感兴趣。本研究在爱丁堡节的一个月长的现场表演中使用大型语言模型(LLMs),调查了在职业剧院环境中,人类演员如何与对话代理合作创作。我们探索了即兴多方对话的技术能力和限制,并从观众和表演者的经验中提供了全面的见解。我们的 “人在环环” 的方法强调了这些 LLMs 在生成与上下文相关的回复方面的挑战,并强调了用户界面的关键作用。观众的反馈表明了对 AI 驱动的现场娱乐、人机直接互动以及对 AI 在创造力支持工具方面多样化的期望。人类演员表达了巨大的热情和不同程度的满意度,而不断演变的公众舆论则凸显了人们对于 AI 在艺术中的角色的复杂情感。
May, 2024
该论文提出了一种名为虚拟体验(virtual embodiment)的多模式 AI 策略,它允许开发人工智能的可伸缩性,并以一种伦理负责的方式在领域内逐步推进。
Oct, 2016
通过将大型语言模型(LLMs)整合到社交机器人中,本研究旨在解决传统基于脚本互动的对话方法在维持有趣的对话方面存在的局限性。我们引入了一个完全自动化的对话系统,利用 LLMs 生成具有有表情的机器人回应,与机器人的个性一致。我们结合两种模式的机器人行为:1)具有多种表现风格的文本转语音(TTS)引擎,和 2)用于机器人的动作库。我们开发了一个定制的最先进的情感识别模型,用于动态选择机器人的语调,并利用 LLM 输出中的表情符号作为生成机器人动作的线索。通过一个志愿者与社交机器人进行对话的试验,我们研究和分析了他们的反馈,对聊天记录进行了严格的错误分析,以阐明设计和实现问题。反馈普遍积极,参与者评论机器人具有共情力、乐于助人、自然和娱乐性。最负面的反馈是由于自动语音识别(ASR)错误,这对对话的影响有限。然而,我们观察到了一类较小的错误,如 LLM 的自我重复或虚构信息和人类回答的产生,这可能会破坏对话,引发了 LLM 应用中的重要问题。
Feb, 2024
提出和评估一种新颖的方法,在不依赖任何存储数据或预训练的情况下,在 LLM 代理之间进行知识蒸馏,以实时保留人类角色扮演中的独特语境,并评估我们的系统在模拟的真实世界任务中表现更好。
Mar, 2024
人类有倾向在周围的物体中看到类似于 “人” 的特质。这种行为被称为拟人化,并且这种拟人化趋势也出现在机器学习中,其中声称在大型语言模型中感知到类似于人类智能的特质。本立场论文通过考虑专业激励、人类偏见和一般的方法论设置,讨论了当前对人工通用智能(AGI)的追求与将人类特质过度归因于大型语言模型之间的关系。通过几项实验,我们证明在潜在空间中发现可解释的人类模式并不足为奇。另外,考虑到媒体中对人工智能的普遍描绘,我们呼吁学术界在解释和交流人工智能研究结果时要格外小心,并且要对学术诚信原则有更高的意识。
Feb, 2024
该研究旨在探索将机器人与人类环境进行自然语言交互以实现无缝操作的关键挑战,通过使用多变压器模型和 BART 语言模型,我们在执行对话历史任务上取得了显著的改进,并提出了一种新的任务扩展方法通过预测游戏计划来促进任务解决。
Nov, 2023
本文将意义基础理论与 AGI 的数学形式结合起来,旨在提供一种全面的有关意义、交流和符号出现的机制性解释。此次综合研究在 AGI 和关于语言本质的更广泛辩论中具有重要意义,它将语用学、逻辑真值条件语义学、Peircean 符号学和赋能认知的可计算模型统一起来,涉及传统上难以进行机制性解释的现象。通过考察一台机器生成有意义话语或理解人类意义的条件,我们确定了目前的语言模型并不具有与人类相同的意义理解,也不打算表达任何我们可以归于它们响应的意义。为了解决这个问题,我们提出了模拟人类情感和优化模型以构建弱表示的解决方案。我们的发现揭示了意义和智能之间的关系,并探讨了如何构建能够理解和表达意义的机器。
Apr, 2023