通过辩论对话开放思维
该研究提出了一种新的神经模型来动态跟踪论证对话中主题和话语变化对说服力的影响,并在社交媒体和最高法院的论证对话上进行了实验验证。实验结果表明该模型能够有效地辨别具有说服力的论证,并发现主题和话语对说服力都有帮助,但优秀的话语风格可能会在社交媒体争议中造成偏见。
Feb, 2020
为支持公平且无偏见的意见建立过程,我们提出了一种与人类进行审议对话的聊天机器人系统。与说服性系统相反,这个聊天机器人旨在提供多样且代表性的概述 —— 嵌入在与用户的对话中。为了实现对话中用户的反思和无偏见的探索,我们使系统能够在用户过于专注于他们已有意见时进行干预。因此,我们提出了一个估计用户反思参与的模型(RUE),该模型被定义为用户的批判性思维和开放性思维。我们报告了一项涉及 58 名参与者的用户研究,以测试我们的模型和干预机制的影响,讨论结果的影响,并提出未来工作的展望。结果表明,我们提出的方法在用户反思和总体用户关注度方面具有显著效果,证明了该方法的有效性。
Aug, 2023
研究 Reddit 上的 ChangeMyView 社区,通过分析交互动态、语言因素等来了解观点转变的机制,发现不同语言的使用对说服力有很大影响,同时也探讨了如何确定某人的观点是否能被改变。
Feb, 2016
我们认为,支持人工智能对话能够实现联合推理(即 “询问”),对于确保人工智能决策符合人类价值观和偏好非常重要。我们特别指出,基于逻辑的辩论和对话模型以及关注于劝说对话的传统方法应该改为关注于询问对话,并阐述了联合询问所带来的不同挑战。鉴于大规模语言模型(LLMs)性能的最新技术突破和预计在决策制定中它们的使用将增加,我们提供了一项研究路线图,以支持联合人工智能语言模型推理任务,并确保决策与价值观相一致的伦理关注。
May, 2024
本文提出了一种神经架构模型,用于模拟辩论对话中持有者的观点和挑战者的论点之间的相互作用,以预测是否成功改变观点。通过 Reddit 上的 Change My View 论坛上的讨论,本文的模型通过演示其两个组成部分:显式表示可挫败区域的注意力检测器和识别观点和挑战者的论点之间关系的交互编码器,在预测中胜过了几个基线,并建议评估成功和不成功的论点的句子。
Mar, 2018
该研究使用马尔科夫决策过程和深度强化学习的方法来优化信息寻求对话系统中的对话策略,并在两个不同领域的论证对话数据集上进行了实验,结果表明该方法可以有效地优化对话策略。
Nov, 2018
使用基于人物的多智能体框架进行辩论和讨论,以生成多样化且有说服力的论证,进一步改进了当前的语言模型生成表面的符号的问题。
Jun, 2024
人工智能的替代代理人具有重要的影响力,可在线上言论中生成有效的论点,以引导公众舆论;此外,它们之间的相互作用还能够模拟人类社会系统中的说服过程,以便作为研究人群舆论动态的可信代理人。
Dec, 2023
通过研究基于观点生成争议性主张的任务,我们试图通过将人们的先前信仰编码到争论性文本中来生成针对信仰进行定制的论证性声明,我们通过自动评估和手动研究来评估该方法的有效性和限制性。
Jan, 2021