- 探索神经机器翻译用于低资源语言:以巴伐利亚语为案例研究
机器翻译在高资源语言取得了接近人类水平的成绩,但低资源语言的研究表明并非所有语言都能从多语言系统中受益。本文通过应用神经机器翻译技术,研究了德语和巴伐利亚语之间的自动翻译系统,并针对低资源语言的困难提出了创新的解决方案,如利用语言相似性和后 - 调查机器翻译中性别偏见的标记和驱动因素
通过反向翻译方法研究大型语言模型中的内隐性别偏见,比较不同语言的结果,提出一种新的评估性别隐含变化的度量标准,并探究驱动偏见的句子特征,结果表明该方法能够进一步揭示语言模型中的偏见。
- EMNLP无监督机器翻译的快速反向翻译
利用 Transformer 和反向翻译算法,以及引入 Quick Back-Translation (QBT) 的改进方法,提高无监督机器翻译的数据通量、利用率及训练效率。
- VLN 预训练在无意义或不相关指令下是否有效?
通过回译进行数据增强在预训练视觉与语言导航(VLN)模型中很常见,即使生成的指令存在噪声。我们发现,在预训练过程中产生的无意义或不相关的语言指令对于 HAMT 和 VLN-BERT 在 R2R 上的后续性能影响很小,仍然比仅使用干净、人工数 - ACL改进神经机器翻译的语言模型集成
本文探讨使用外部语言模型和针对内部隐式语言模型所采用的方法,在神经机器翻译任务中在线性融合语言模型方面的性能表现,发现考虑隐式语言模型可极大提高模型性能,但背向翻译仍然是最有效的方法。
- Translatotron 3: 利用单语料进行语音翻译
本文提出了 Translatotron 3,一种无需监督数据集即可以直接语音为输入,并通过采用掩码自编码器、无监督嵌入式映射和回译相结合的方式进行训练的翻译模型。在西班牙语与英语之间的语音到语音翻译任务中,实验结果显示,Translatot - 非英语问题下不要信任 GPT
本文提供了一种系统方法来衡量 LLMs 在多语言环境下的表现差异,探讨了 LLMs 的跨语言概括现象,结果表明 GPT 在多语言环境下表现出高度翻译一致的行为。
- Cross2StrA: 无配对跨语言图像字幕生成与跨语言跨模态结构中心对齐
本文提出引入场景图和句法树来解决跨语言图像描述中存在的不相关性和表达不流畅的问题,并介绍了一种跨语言和跨模态的后向翻译训练方法,实现图像到最终描述的完全对齐,实验结果表明该模型在提高图像描述的相关性和流畅性方面表现出很大的优势。
- WMT22 捷克语 - 乌克兰语翻译任务的 CUNI 系统
我们参加了 WMT22 年度机器翻译竞赛,并基于块级反向翻译和标记反向翻译的策略提交了两种有约束的翻译。我们还尝试了基于规则的乌克兰罗马化。实验结果表明,罗马化对翻译质量的影响较小。此外,我们还描述了 Charles Translator, - 基于大型预训练模型的流畅翻译 ——MixMT 2022 SIT
本论文介绍了史蒂文斯理工学院提交的 WMT 2022 共享任务:混合代码机器翻译并针对该任务的两个子任务的技术改进,包括采用大型预训练多语言 NMT 模型和领域内数据集以及反向翻译和集成技术等,该系统取得了子任务 2 上的第一名和子任务 1 - WMT22 多语言机器翻译任务的 VolcTrans 系统
本报告介绍了我们的 VolcTrans 系统,它是一个基于 Transformer 的多语言模型,使用从多个来源收集的数据进行训练,包括来自数据轨道的公共训练集,由 Meta AI 提供的 NLLB 数据,自收集的平行语料库和来自反向翻译的 - Adam Mickiewicz University 在 WMT 2022 中的:NER 辅助和质量感知的神经机器翻译
本文提出了 Adam Mickiewicz 大学对于 WMT 2022 通用机器翻译任务的限制性跟踪的提交结果,使用基于 transformer 架构的加权集成模型进行双向乌克兰语 <-> 捷克语翻译,使用源因子利用输入的命名实体信息,在训 - ACL多语言双向无监督翻译:借助多语言微调和回译
本文提出了 EcXTra 方法,使用预训练模型,在 40 种语言间进行多语言微调,使用双向回译来生成合成的语言平行数据,达到了无监督 NMT 的翻译效果。该方法在处理低资源语言上表现出优秀的翻译性能,尤其在英语到哈萨克语的翻译任务上达到了新 - 翻译模型缺乏流畅度的影响
本文描述了一种基于梯度的机器翻译模型训练方法,在去除了语言偏差和提高流畅度的基础上,使用反转和增强技术提高翻译模型的性能。
- ACL无监督编程语言翻译:总结和生成到回译
本文提出了通过代码摘要和生成实现反向翻译的方法,该方法通过自然语言(NL)摘要生成源代码,然后通过源代码再生成目标语言。结果表明,该方法与现有的最先进方法相比性能相当好。
- ACL无监督神经机器翻译训练和推断之间数据差距的纾解
通过在线自我训练方法缩小数据差距,使用伪并行数据来模拟推理情景,从而解决了 Unsupervised Neural Machine Translation中的源数据差异所带来的挑战。
- 使用反向翻译文章和调整分数来提高自动化论文评分的性能
本文提出了一种使用回译和分数调整来增加论文 - 评分对数目的方法,并将其应用于 Automated Student Assessment Prize 数据集进行扩充,通过使用先前工作中的模型对增强数据的有效性进行了评估,并使用长短期记忆进行 - 反向翻译框架中翻译模型的端到端训练
本篇论文提出了一种基于交叉学习的半监督学习算法,其中使用了背译和变分自编码器以及分类重参技巧来提高机器翻译的质量。
- 使用 Transformer 将自然语言转化为代码
本文使用 CoNaLa 数据集,利用自注意力变换器结构解决了从自然语言描述中生成代码片段的问题,并表明其表现优于循环注意力编码器解码器,使用修改后的反向翻译和周期一致损失以端到端的方式训练模型,实现了 16.99 的 BLEU 分数,超过了 - COLING基于视觉信息引导的零射击释义生成
本文提出了一种基于视觉信息的零样本释义生成模型 ViPG,它利用图像的引导作用,通过联合训练图像字幕模型和释义模型,生成具有良好相关性、流畅性和多样性的释义,表明图像作为零样本释义的一种引导方式具有潜在前景。