神经对话翻译的多任务学习调度
本论文旨在研究神经聊天翻译 (NCT),针对已有上下文感知机器翻译模型存在的问题,提出了一种多任务多阶段过渡 (MMT) 训练框架,采用双语聊天翻译数据集和额外的单语对话训练 NCT 模型,并引入话语一致性和说话人特征建模。训练过程包括三个阶段,通过逐步转换单语为双语对话,MMT 能够有效地缓解训练阶段的差异并提高翻译效果。
Jan, 2023
提出了一种神经编码器 - 解码器机器翻译模型框架,该模型开始交替学习语法和翻译,逐渐将重点放在翻译上,实现了在相对较大的平行语料库(WMT14 英语到德语)和低资源(WIT 德语到英语)设置中的 BLEU 得分显着提高。
Apr, 2018
本文提出了一种基于多任务学习方法,利用源端的单语言语言资源来解决神经机器翻译中由于缺少平行文本造成模型质量差的问题,并采用语义分析、句法分析和命名实体识别等辅助任务以将语义和 / 或句法知识注入到翻译模型中,实现了在英法、英波斯和英越三种翻译任务上的有效性验证。
May, 2018
本研究旨在通过设计潜在变分模块来提高自然语言机器翻译中针对双语对话文本的翻译质量, 在英德数据集 BConTrasT 以及英汉数据集 BMELD 上的实验证明该方法较好地增强了翻译质量并明显超过了一些最先进的具有上下文感知的 NMT 模型,并且还公开了 BMELD 数据集供研究人员使用。
Jul, 2021
提出了一种基于多任务学习的框架,通过对单语数据的两个去噪任务和双语数据的翻译任务联合训练模型,显著提高了多语言 NMT 系统的翻译质量,并在零样本学习的情况下证明了该方法的有效性。
Oct, 2020
本研究介绍了一项名为 Multimodal Chat Translation (MCT) 的新任务,旨在通过与对话历史和视觉上下文相关联的信息来生成更准确的翻译。为此,构建了一个 Multimodal Sentiment Chat Translation Dataset (MSCTD),并建立了多个基线系统,实现了基于情感的各种特征多模式融合。初步实验证实了人工智能上下文多模式融合和情感因素对 MCT 任务的积极影响,为多模式聊天翻译和多模式对话情感分析的研究提供了可能性。
Feb, 2022
研究了不同的任务调度方法以在多个任务(语言)上同时训练神经机器翻译模型,包括现有的非自适应技术和自适应调度技术,并考虑了隐式调度技术。这些方法使得多语言模型在低资源语言对(少量数据的任务)中表现更好,同时最小化对高资源任务的负面影响。
Sep, 2019
本文提出一种多智能体交互更新的 NMT 模型框架,包括双向解码和多种 agenets,通过互相学习提升翻译质量,实验证实该方法在多项翻译任务中具有竞争性能力。
Sep, 2019
本文提出了一项翻译双语多说话者会话的任务,并探索了利用源语言和目标语言会话历史的神经网络架构,在 Europarl v7 和 OpenSubtitles2016 数据集上的实验证实了利用对话历史的重要性。
Sep, 2018
本文探讨了用于神经语音翻译的多任务模型,并对其进行增强,以反映两个直观概念。精准的中间表示和神经关联的模式,参与模型的训练可以提高低资源语音转录和翻译任务的性能。
Feb, 2018