- ACLMELD-ST:一种情感感知的语音翻译数据集
本文强调在语音翻译中考虑情感的重要性,并介绍了 MELD-ST 数据集,该数据集用于情感感知的语音翻译任务,包括英至日和英至德语言对。每个语言对都包含约 10,000 个用 MELD 数据集进行情感标注的话语。对数据集使用 Seamless - ACL一种基于偏好的增强翻译的范式与大型语言模型
通过基于 Plackett-Luce 模型的基于偏好的方法,成功突破了以模仿为基础的 SFT 的平台效应,从而实现了在各种 LLM 和测试环境中的性能优势。
- 非流利的合成目标语言数据提高神经机器翻译
从有限的平行语料中生成合成训练样本,即非流利目标端句子能够在多语种机器翻译框架中有效地提高翻译性能,并且这种方法对原始训练语料的规模不敏感,从而使系统更鲁棒、产生更少的幻觉。
- 通过混合指令提升大型语言模型的文档级翻译
提出了一种结合不同长度的句子级和文档级翻译指令来微调大型语言模型(LLM)的方法,以显著增强 LLM 在文档级翻译中的能力,并有效解决文档级翻译中的句子覆盖问题,实验证明该方法在 10 种语言对上显著提高了翻译质量。
- 适应大型语言模型的文档级机器翻译
探索大型语言模型在文档级机器翻译中的适应过程及性能,研究了提示策略及精细调优方法对翻译结果的影响,发现部分专用模型的翻译性能甚至超过 GPT-4,但仍面临着偏离翻译问题的挑战,同时进行了深入分析,包括翻译错误、平行文件的规模关系、领域外泛化 - 通过模仿学习拓展多语言机器翻译
通过模仿学习 imitate learning 的方法扩展大规模多语言神经机器翻译 MNMT 模型,解决了新语言增加后导致性能下降的问题,并改善了翻译性能和解决了当前大规模神经机器翻译模型中常见的复制和偏离问题。
- 基于最小贝叶斯风险解码的神经机器翻译直接偏好优化
通过最小贝叶斯风险(MBR)解码可以显着提高多语种大型语言模型(MLLMs)的翻译性能。本文展示了如何使用最近开发的强化学习技术 —— 直接偏好优化(DPO)来微调 MLLMs,以实现在推理中获得 MBR 带来的增益而避免额外的计算负担。相 - MM人机协作的大型语言模型机器翻译
借鉴人机交互和上下文学习的特点,提出了一种人机协作的流程,通过指导大型语言模型生成自定义输出,以改善翻译性能,并进行了多个角度的评估和分析。
- 通过扩充指令来提高大型语言模型的翻译准确性
通过引入 SWIE(Segment-Weighted Instruction Embedding)和一个 instruction-following 数据集 OVERMISS,以及对两个主流开源 LLMs BLOOM 和 LLaMA 的应用 - 关于无监督 NMT 复制问题的训练进度与语言区分器损失
本文提出一种简单且有效的训练方法,通过增加语言鉴别器的损失,来约束中间翻译结果的语言,从而减轻低资源语言翻译中常见的抄袭问题,并提升翻译表现。
- ICLR简单且可扩展的最邻近机器翻译
本文提出了一种基于句子级检索的最近邻机器翻译框架,用于快速领域自适应,该框架旨在大大提高 kNN-MT 模型的解码和存储效率,并且不会影响翻译性能。实验证明,该框架不仅能够达到与 NMT 模型相同的速度,且能够显著减少存储要求。
- 超越三元组:利用最多数据进行多模态机器翻译
通过提出一个新的方法和新的数据集,本文致力于提高多模式机器翻译的翻译质量并解决了只能利用少量数据和当前的基准相对较为受限约束的问题,结果表明我们的方法更适合实际场景并显著提高了翻译性能。
- 面向神经机器翻译的短语级对抗样本生成
本研究提出了一种基于短语级别替代策略的对抗样本生成框架(PAEG)以提高神经机器翻译从业者的鲁棒性和性能表现。实验证明,相较于单纯的字级替代方法,我们的方法可以显著提高翻译性能和抗噪性。
- ACL神经机器翻译预训练的复制行为研究
本文研究了使用预训练语言模型来初始化神经机器翻译模型的好处,在发现预训练对机器翻译的副作用时,提出了一种名为 “copying penalty” 的方法来控制解码过程中的复制行为,实验证明,该方法可以提高预训练的机器翻译模型的翻译性能。
- 多通道变形器用于多关节手语翻译
本文提出了一种新的多通道变压器架构,能够处理多关节手语翻译任务,同时既考虑关节之间的上下文关系,又保持通道特定信息,并证明了其具备在 RWTH-PHOENIX-Weather-2014T 数据集上竞争力的翻译性能,同时消除了对贵重高质量注释 - 神经机器翻译的句法感知数据增强
本文提出了一种新的句法感知数据增强策略,使用输入句子的依存句法树来确定每个句子中单词的选择概率,以有效增强神经机器翻译的翻译性能。实验表明,所提出的数据增强方法可显著提高基于句子独立的方法的翻译性能。
- 神经机器翻译的显式重排序
本文介绍了如何使用双语平行数据集来模拟目标语序,在改进了位置编码机制的基础上,提出了一种新的序列重排序方法来显式地模拟源语句子的重排序信息,同时实验证明,该方法在多种翻译任务中均有效。
- AAAI神经机器翻译的显式句子压缩
该研究提出了一种明确的句子压缩方法来增强源句子对于 NMT 的表征,包括背景信息,提出三种整合压缩句子到 NMT 的方法,并在 WMT 英法和英德翻译任务上进行实验测试,结果显示该压缩方法显著提高了翻译表现。
- ACL为非自回归神经机器翻译检索连续信息
本论文提出了两种增强 Non-Autoregressive Transformer (NAT) 翻译能力的方法:一种基于一种新的强化学习算法的序列级训练方法,叫做 Reinforce-NAT;还有一种名为 FS-decoder 的新型 Tr - ACL非自回归神经机器翻译的模仿学习
本文提出了基于仿真学习的非自回归机器翻译框架,该框架仍然具有快速翻译速度但与其自回归对应方法相比具有可比较的翻译性能。通过对 IWSLT16、WMT14 和 WMT16 数据集进行实验,发现我们提出的模型在保持翻译质量可比的同时,比自回归模