- 人工智能辅助机器翻译的人工评估
机器翻译系统的质量评估被提出的错误范围标注协议辅助,使用自动质量估计填充范围注释可以提供更详细的注释并将每个范围注释的时间缩短了一半,此外还可以减少最多 24% 的注释预算。
- 通过简单的检测器聚合增强神经机器翻译中的虚构检测
本文提出了一种通过结合多个检测器来解决机器翻译系统中个别检测器的局限性的简单方法,以提高其有效性,为更加可靠的机器翻译系统迈出了一步。
- 大规模多语言文本翻译低资源语言
通过利用资源丰富的语言的翻译资源,我们可以高效地将多种已知语言的限定文本翻译成新的资源匮乏语言,从而实现与人工翻译员合作,加快翻译进程。
- 通过句法树修剪进行机器翻译测试
通过基于语法树修剪的新型变异测试方法,验证机器翻译系统以提高准确性和可靠性;在 Google 翻译和 Bing 微软翻译中准确检测出 5073 和 5100 种错误翻译,比现有技术增加了 400%,错误翻译类型多样且大部分现有技术无法捕获, - 使翻译器对用户的隐私意识增强
我们提出了 PRISM,以使机器翻译系统的用户能够保护其数据的隐私。PRISM 通过在用户端提供数据保护功能,解决了当前机器翻译引擎存在的隐私保护不足的问题,并在不显著影响翻译准确性的前提下增加了额外的安全保障。
- OpusCleaner 和 OpusTrainer,用于训练机器翻译和大型语言模型的开源工具包
通过 OpusCleaner 和 OpusTrainer 工具,简化机器翻译系统的开发过程,降低工作量并降低新手的门槛。这些工具能够下载、清洗和预处理来自不同来源的双语(或单语)数据,并通过数据调度和数据增强构建大规模、可靠的机器翻译系统和 - EMNLP机器翻译中基于行为测试的通用错误诊断
本文提出了一种新的基于双语翻译对生成行为测试框架(BTPGBT),通过该框架对机器翻译系统进行行为测试,能够全面准确地诊断常见错误,进而得出一些有洞察力的发现。
- 评估 NMT 中基于子词的标记化的频率与组合重要性
该研究探讨了子词分词在神经语言模型和机器翻译系统中的应用,并提出了一种基于 Huffman 编码的分词方法,表明非常高频的单词分别出现,是达到比贪心算法高的分数的一个相对较重要的因素。
- 加强对原住民语言的翻译:多语模型实验
本文介绍了 CIC NLP 为 AmericasNLP 2023 的美洲土著语言机器翻译系统共享任务提交的三种方法,其中使用了 M2M-100、mBART50 和 Helsinki NLP Spanish-English 翻译模型,总体而言 - ITU 法罗语成对数据集
本文介绍了 ITU Copenhagen 提供的 Faroese 和 Danish 句子对的数据集,该数据集包含源语言的翻译,目的是为了在这两种语言之间的机器翻译系统中使用。
- ACL预训练的多语言序列到序列模型:底资源语言翻译的希望?
通过在 10 种语言上进行完备实验,考虑了五个因素:(1)微调数据量,(2)微调数据中的噪声,(3)模型预训练数据量,(4)领域不匹配的影响以及(5)语言类型学,我们试图确定预训练多语言序列到序列模型(如 mBART)对翻译低资源语言有何贡 - ACLBLEU 的黑箱:重新评估自动机器翻译评估指标
研究了自动度量在机器翻译系统开发和评估中的问题,发现现有的判断度量方法对于用于评估的翻译非常敏感,特别是存在异常值的情况下,经常会导致关于指标作用的错误结论。研发了一种用于阈值性能提高的算法,可以模拟在与人工判定相比的情况下出现的 2 类误 - 使用双语句子嵌入的有效并行语料库挖掘
该研究提出了一种有效的并行语料库挖掘方法,使用双语句子嵌入进行训练,通过引入硬负例来实现。该方法是基于语义相似度的,结果表明该方法可以用于重建平行文本,从而训练出 NMT 模型,与使用原始数据训练的模型相差不大。
- COLING利用双向递归神经网络提取平行句子以改善机器翻译
该研究提出了一种基于双向循环神经网络的并行句子抽取方法,旨在解决多语言自然语言处理应用中数据稀疏性的问题。通过从维基百科文章中提取句子对来训练机器翻译系统,实验证明采用该方法能够显著提高翻译性能。