本文研究多方对话中的信息交流和应答选择问题,通过引入基于角色感知的 Speaker Interaction Recurrent Neural Network (SI-RNN) 模型,综合考虑对话参与者的角色交互并将应答选择视为序列预测问题,显著提高了在复杂多人对话情境下的准确度。
Sep, 2017
本文提出了一项翻译双语多说话者会话的任务,并探索了利用源语言和目标语言会话历史的神经网络架构,在 Europarl v7 和 OpenSubtitles2016 数据集上的实验证实了利用对话历史的重要性。
Sep, 2018
本研究提出了一个名为 XPersona 的个性化对话数据集,并通过多语言训练的基线模型和跨语言训练的基线模型进行了实验证明。结果表明,多语言训练的模型优于翻译管道模型,并且其性能与单语言训练的模型相当,而跨语言训练的模型则表现出劣于其他模型的性能。该数据集和基线模型有望加速多语言对话系统的研究。
Mar, 2020
本文研究提出了一种通用多语言模型的框架,该框架利用深度学习架构实现语音助手设备的自然语言理解,显著减少了单独开发每种语言模型所需要的努力和维护成本,并在多语种环境下取得了比单语种环境下更好的研究成果。
Dec, 2020
本文讨论了在任务导向的对话系统中如何识别用户意图和相应的插槽,并通过多种跨语言转移方法进行数据集训练比较
Oct, 2018
该文介绍了 MRS,一个包含十种语言的多语言回复建议数据集,可用于比较选择模型和生成模型的优劣,并公开了基于此数据集的生成和检索模型。
Jun, 2021
本研究对开源聊天机器人的多种回复生成方法进行了系统评估,提出了利用手动注释筛选出的多个正向回复和负向回复,从而提高模型效果的新训练数据,并实验证明性能较之采用对抗训练数据有更显著提升。
Aug, 2022
本文提出了一种使用多任务学习方法训练神经会话模型的方式来解决根据具体发言人训练缺乏数据、建立基于角色的会话代理的问题。实验证明该方法显著提高了基线模型的质量,生成更准确地捕捉发言者特征和讲话风格的响应,并且该方法算法简单易实现,不依赖于代表特定个体发言者的大量数据。
Oct, 2017
该论文提出了一种跨语言句子选择的方法,旨在使用数据增强和负采样技术来直接学习基于嵌入的跨语言查询相关模型,结果显示该方法的效果不亚于或优于多个最先进的机器翻译 + 单语检索系统,该方法在英语 - 索马里语、英语 - 斯瓦希里语和英语 - 塔加洛语三种语言对中获得了一致的改进。
该论文研究了基于跨语言转移的多语种自动语音识别模型的最新进展和最佳实践,并探讨了未来的研究方向和建议。
Feb, 2022