本文介绍了一个深度多任务学习框架,通过上下文级别的视听注意力机制来同时进行情感和表情分析,并在 CMU-MOSEI 数据集上达到了新的最佳性能。
May, 2019
本研究提出了一种对话上下文感知的语音识别模型,该模型可以在端到端的方式下明确地使用除句子级别信息以外的上下文信息,以使整个系统能够被训练得更好并表现得更优秀。我们在 Switchboard 交谈语音语料库上评估了我们的方法并显示出优于可比较的句子级端到端语音识别系统的效果。
Aug, 2018
本文提出使用自动提取的信息作为衡量已有机器人回答质量的替代方法,从而避免了对人工标注数据的依赖,实现对弱监督数据的训练,并添加了对口语和书面语的支持。
Mar, 2022
本文提出了三种方法,利用情感分析对开放域对话进行自动评估,并在书面和口头对话数据集上胜过现有的自动评估指标。
Nov, 2021
提出了一种综合考虑语言和韵律话语历史的共情式对话语音合成模型,通过预训练的自监督学习模型、引入韵律特征模型等手段,实现对话语境的适当预测,取得了优秀的语音合成效果。
Jun, 2022
本研究提出了基于多模态的端到端自适应语音识别系统,采用卷积神经网络获取视觉信息,与传统方法相比表现优越。
Nov, 2018
本文提出了一种以情感为中心的端到端会话代理,基于两种模型,回复情感预测模型和文本生成模型,并且利用情感分类模型来评估代理的表达情感。通过指导预定义一组句子的文本生成模型,有效提升了生成文本的质量和表达情感的准确度,通过人工及自动化评估显示了显著的改进。
Jul, 2022
本文介绍了一种基于强化学习的新型端到端对话系统学习框架,用于解决模块化任务完成功能对话系统在训练和使用中面临的挑战。研究的实验表明,该端到端系统不仅在客观和主观评估中优于传统的模块化对话系统基线,而且在处理语言理解模块的各种误差时具有稳健性。
Mar, 2017
本文提出了一种增强的端到端框架,通过学习其他辅助任务和关注机制来获取更加稳健和更好地共享表示,以缓解传统系统中由于有限训练数据而导致的过拟合问题,提高语音情感识别性能。
Mar, 2019
本文提出了一种多任务框架,该框架联合识别对话的情感并根据所识别的情感生成响应,我们利用基于 BERT 的网络来创建一种共情系统,并使用混合目标函数来训练端到端网络,包括分类和生成损失函数,实验结果表明,我们的多任务框架优于现有的最先进模型。
May, 2022