会话偏离的动态预测
通过基于图卷积神经网络的模型,考虑了对话的用户动态和公众看法对话语的影响,可以预测对话的失轨迹象,并在预测前采取积极的管理措施。通过经验评估,在 CGA 和 CMV 基准数据集上,相较于现有的模型,我们的模型可以有效地捕捉对话动态,并在性能上分别提升 1.5%和 1.7%。
Jun, 2023
提出一种基于分层 Transformer 的框架,结合话语级别和对话级别信息捕捉精细的上下文语义,同时考虑话语结构信息和距离变形的多任务学习方案,以实现对网络对话中马车出轨的预测。
Mar, 2023
使用在大规模的 Twitter 语料库上预训练并在我们任务上进行微调的基于注意力机制的 BERT 架构,有效地进行对社交媒体对话中的个人攻击和逻辑偏离行为的预测,此模型相较于我们作为基准所使用的 LSTM 模型表现出明显的优势。此外,通过综合过采样技术,可在相对较小的新颖数据集上进行微调,并减轻过度拟合问题。通过引入基于 Transformer 的模型,使该研究为预测 Twitter 上对话事件的实用工具奠定基础,以鼓励更好地互动在最普遍的社交媒体平台之一。
Nov, 2023
有效的对话者必须考虑他人的不确定目标、信念和情绪,但是即使是最好的人类对话者也无法完美地预测对话的轨迹。我们提出了 FortUne Dial,对长期存在的 “对话预测” 任务进行了扩展:不仅评估准确性,还使用了具有不确定性意识的度量标准,有效地使个别实例中可以放弃预测。我们研究了语言模型在代表对话结果不确定性方面的两种方式(内部使用分数,直接使用标记),并提出了改进这两种表示的校准的微调策略。在八个困难的谈判语料库上的实验证明,我们提出的微调策略(传统的监督策略和离线策略增强学习策略)能够使规模较小的开源模型与其体积为 10 倍的预训练模型竞争。
Feb, 2024
我们引入了动态对话总结的任务,通过构建一个人为编写的总结数据集并探索几种自动化基准来总结对话的动态。我们评估了这些总结是否能够通过一个已建立的下游任务 —— 预测正在进行的对话是否最终会发展成有害行为 —— 来捕捉对话的轨迹。我们证明这些总结对人类和自动化系统在预测任务上都有帮助。人们在阅读总结时,做出预测的速度是在阅读完整对话的三倍,并且更有信心。此外,与直接对对话记录进行预测相比,自动化预测系统在构建并基于对话动态总结进行预测时更加准确。
Apr, 2024
研究了社交媒体的 NLU,通过动态设置来讨论模型的适应性和使用无标记数据来提高模型的鲁棒性,使用基于自动编码和伪标记的无监督领域自适应和联合框架的实验证明了动态环境对分类精度的普遍负面影响,同时表现出最佳的鲁棒性。
Oct, 2022
本研究旨在提出一种初始预测在线讨论是否会演变成骚扰或人身攻击的框架,该框架可以捕捉与未来在线讨论轨迹相关的优雅用语等语言特征,并在受控环境中展示了检测在线讨论的早期预警迹象的可行性。
May, 2018
通过自然对话,智能代理能够协助用户进行预测任务,而无需深入了解机器学习过程,本文通过引入一种名为预测话语的新概念并聚焦于从这些话语中准确解读用户预测目标,将任务作为一个槽填充问题,然后采用两种零样本方法解决槽填充任务,即实体抽取和问答技术,我们通过三个经过精心构建的数据集进行实验证明了我们雄心勃勃的目标的可行性,并展示了实体抽取和问答技术在解读预测话语中的有效性。
Sep, 2023
本文研究如何将预训练语言模型适应于不断变化的 Web 内容,通过分析 Twitter 数据的演化,探索了词汇组成和抽样方法对语言模型的增量训练的影响,证明了该方法比离线重新训练新模型更具优越性
Jun, 2021