信念修正与不协调:是个笑话吗?
我们探讨了如何通过 Rational Speech Acts 框架的方法,为已有的对话代理赋予公共自我意识的能力,以强化其一致性并减少矛盾,同时探索了如何在对话中提高背景一致性。
Apr, 2020
通过多智能体 LLM 系统的模拟,本研究探讨了文化个体的稳定性来源以及对群体决策的意见多样性的影响,发现多智能体讨论能够鼓励反映多元观点的集体决策,但个体易受同伴压力的影响和在保持一致的文化个体和意见方面所遇到的挑战削弱了这个优势,而鼓励辩论支持自己观点的指示则提高了不一致性的发生率。如果不解决我们所确定的因素,多智能体框架产生更多文化多样的 AI 产出的潜力将无法实现。
May, 2024
本文使用扩展的反似然损失函数及正则化方法解决了生成式对话模型中含复制文本、重复、高频词汇和逻辑缺陷等问题,并通过采集数据并应用反似然来提高逻辑一致性,实现了具有更强推理能力的生成式对话模型,我们还在多项对话任务中验证了所提出的方法的有效性。
Nov, 2019
通过研究大型语言模型的上下文学习动态,本文揭示了学习过程中的非对称性、对超出预期结果的更强学习效果以及问题框架对学习方式的重要影响,从而对上下文学习的工作机制有所贡献。
Feb, 2024
本研究对话机器人的语言校准能力,尤其是在表达疑虑的透明度方面进行了深入分析,发现现有的最新技术的聊天模型缺乏语言校准能力,但是我们能够从概率上准确地预测其正确性,并通过加入元认知功能来训练可控生成模型,从而获得具有显著改进的语言校准能力的对话机器人。
Dec, 2020
大语言模型(LLMs)在心灵理论(ToM)任务中表现出令人信服的水平,在人际认知中将不可观察的心理状态归因于他人是人类社会认知的关键之一,也在人与人工智能(AI)之间的委托关系中可能同样重要。本文探讨了一种发展心理学中研究的期望违反(VoE)机制如何通过利用出现的 ToM 便利来减少 LLM 对用户预测中的错误,并引入了一种 extit {元认知提示} 框架,将 VoE 应用于 AI 导师的背景中。通过存储和检索在 LLM 对用户的预期被违反的情况下得出的事实,我们发现 LLMs 能够以类似人类学习理论的方式了解用户。最后,我们讨论了建模用户心理的潜在风险和增强机会,并提出了减少风险的方法以及未来研究的可能方向。
Oct, 2023
为了让人类能够很好地与机器人协作,提出了一种包含逆强化学习和演示方法,在选择展示时考虑了人类对机器人决策的预期,使用了一种新的测试难度测量方法,并发现这种方法在易于测试的情况下降低了人类的性能,但在难于测试的情况下增加了性能。
Mar, 2022
为了改进聊天机器人中的矛盾检测,本文提出了一种通过重写聊天机器人发言来还原先行词和省略号的方法,并在相应的数据集上建立了模型,实证结果表明该模型能够显著提高矛盾检测性能。
Jul, 2022
本研究旨在提高用户与对话系统之间的交互质量,通过监测用户混乱状态并对话策略进行相应调整。通过研究用户与虚拟人物的对话情境,定义混乱状态,并使用预先训练的深度学习模型来分析情感、头部姿态和视线等指标与混乱状态之间的关系,从而实现智能对话系统的开发。
Jun, 2022