- ACL文档级神经机器翻译的重要性感知数据增强
提出了一种基于重要性感知数据增强算法的文档级神经机器翻译方法,通过估计隐藏状态和训练梯度的法线来增加训练数据,并在常用文档级神经机器翻译基准数据集上获得了显著优于强基线模型和其他数据增强方法的结果,包括句子级和文档级 BLEU。
- VLSP 2022 年 VBD-MT 中越翻译系统
我们的研究使用了基于神经网络的 Transformer 模型和 mBART 预训练模型,在 VLSP 2022 机器翻译任务中取得了 38.9 BLEU 的中越翻译和 38.0 BLEU 的越中翻译结果,超过了多个强基准。
- 走向多参考时代 -- 解决自然语言生成评估中的数据泄漏和参考多样性受限问题
N-gram 匹配评估指标,如 BLEU 和 chrF,在各种自然语言生成(NLG)任务中被广泛使用。然而,最近的研究发现,这些基于匹配的指标与人类评估之间存在较弱的相关性,尤其与 BLEURT 等基于神经网络的指标相比。在本文中,我们假设 - ACLMobileNMT:使 15MB 和 30ms 内进行翻译成为可能
本文提出 MobileNMT,这是一个可以在移动设备上进行翻译的系统,该系统通过一系列的模型压缩原则与量化相结合来实现,与现有系统相比,其速度提高了 47 倍,节省了 99.5% 的内存,只损失了 11.6% 的 BLEU。
- BLEU Meets COMET: 结合词汇和神经度量以实现机器翻译评估的稳健性
本研究探讨将传统评估方法如 BLEU 或 chrF 与基于神经网络的机器翻译评估方法如 COMET 或 BLEURT 相结合,通过使用附加的诸如句子级特征和单词级标签等额外信息训练评估指标,提高了最新状态下的机器翻译评估方法的稳健性,从而在 - 预训练编码器和解码器之间的有效连接,用于语音翻译
本研究提出了一种互连机制,通过加权求和来聚合语言预训练模型的每一层信息并输入到解码器中,从而提高了 BLEU 大约 2 分,在冻结语言预训练模型时加入了 2K 的参数。此外,我们通过可视化层权重,发现每个语言的每层的贡献是不同的。
- ACLTranSFormer:用于机器翻译的慢速 - 快速 Transformer
本文提出了一种 Slow-Fast 双流学习模型 ——TranSFomer,将细粒度字符级特征与多尺度 Transformer 结合,显著提高了机器翻译 BLEU 指标。
- 基于图文自监督训练的多模态预训练模型泛化算法
本研究提出了一种多模态预训练泛化算法,有效克服了神经机器翻译中缺乏视觉信息和准确性等难题,通过搜索引擎从现有句子中寻找多张图片,通过视觉信息与文本的关系完成图文自监督训练任务,得到更加有效的视觉信息,并证明基于该算法的翻译效果比基线模型高出 - Lego-MT: 面向大规模多语机器翻译的可拆卸模型
本文提出了一种名为 Lego-MT 的多向分支神经机器翻译模型,通过局部化训练,将不同的分支映射到一个统一的空间中,达到高效、可分离的效果,并在收集的包含 7 个语言中心数据的大型开源翻译基准测试中,取得了超过 4 个 BLEU 的提升,优 - 用于束搜索再排序的简单基准线
本文介绍了一种简单的方法,通过训练重新排序器来预测翻译候选的 BLEU 分数,从而达到准确衡量机器翻译质量的目的。在未引入其他数据或参数的情况下,此方法可以作为该领域未来研究的一个干净的基线模型。
- EMNLPWMT 2022 翻译建议共享任务发现
WMT 共享任务中,我们获得了 92 个参与队伍提交的数据,使用 BLEU 自动评估指标对机器翻译中的翻译建议进行了评估,并提供了英德和英汉语料库来进行两个子任务的翻译建议。
- ACL使用 SignWriting 表现手语的口语语言和手语之间的机器翻译
本文研究了机器翻译系统在口语和手语之间的应用,使用手语书写系统 SignWriting 作为手语的表示方式。利用神经因子化机器翻译的方法,该方法能够在手语到英语的双语转换中达到 30 BLEU 的翻译效果,在口语和手语之间的双向翻译中达到 - 通过建议重排序提高检索增强翻译的稳健性
使用翻译记忆进行模糊匹配的神经机器翻译系统,存在与测试数据不匹配的领域问题。作者提出了一种简单的方法,在训练期间暴露模糊匹配,从而使系统对与测试数据不匹配的翻译记忆具有更好的容错性,并且该模型在使用相关翻译记忆的情况下仍然具有竞争力。
- 语言标记:一种令人沮丧的简单方法提高多语言翻译的零射击性能
本研究提出使用编码器 - 解码器框架来处理机器翻译的问题,在零样本情况和有直接数据的情况下,对输入记号进行修改并在编码器和解码器中包含源和目标语言的信号以提高性能,通过基于预训练模型或从头开始训练模型并使用所提出的设置从实验中得出改进结果, - ACL构建可提供任意 X-Y 翻译的多语言机器翻译系统
本文旨在讨论如何通过两阶段训练策略实现多语言神经机器翻译系统,以解决低效率的问题,并在 WMT'21 多语言翻译任务中进行实验验证,证明我们的系统在大多数方向上优于基线模型,并且不需要架构修改或额外数据收集。
- 上下文网络和无监督句子排序
首次使用上下文网络表示文档,并结合基于无监督算法的文本分析,综合考虑主题和句子评分来对句子进行排序;使用 SummBank 数据集,本文提出的 CNATAR 算法在 ROUGE 和 BLEU 指标下表现优异,超越了人工评分和现有的有监督算法 - 通过利用个人领域专业知识对 JA <-> EN 语言对进行优化,改进机器翻译的最新技术
本文介绍了一个基于 Transformer 结构和 OpenNMT 框架的 En/Ja 神经机器翻译系统的构建,详细探讨了预处理、超参数调整和模型结构等因素的影响,并通过 BLEU 等标准自动评估指标以及作者的主观评估证实了其优异性能。
- EMNLP神经机器翻译质量与后编辑表现
本研究测试了在专业翻译中使用神经机器翻译(NMT)是否能够节省人工处理时间,并发现更好的 MT 系统确实能够减少英文到捷克文翻译过程中的修改次数,但是质量和编辑时间之间的关系并不是直接的关系,并且与短语词汇表机器翻译不同的是,BLEU 不能 - ACL使用扰动长度感知位置编码进行非自回归神经机器翻译
本文提出了一种采用扰动的长度感知位置编码的序列级知识蒸馏方法,并将其应用于学生模型 Levenshtein Transformer 中,以提高非自回归神经机器翻译的翻译效果。实验结果表明,该方法在 WMT14 德语到英语翻译中相较传统方法提 - 自动机器翻译评估指标的全面评估:是否需要进行交付
该研究对机器翻译中评估标准的可靠性进行了探究,发现使用自动指标作为唯一评判标准可能导致错误决策,需要依赖人工判断作为参考,并发布了收集到的大规模人工翻译质量评价数据集,以供进一步研究。