基于GPT-4的创意和语境感知的东亚成语翻译
本文探讨了神经机器翻译中存在的习语翻译难题,提出了一个新的自动化量化习语翻译错误的方法,并通过对模型的训练以及不同翻译测试集的测试,探索了单语预训练和习语上下文因素对翻译质量的影响。
Oct, 2022
描述了基于GPT的翻译质量评估指标GEMBA,可以用于有参照的和无参照的情况。研究了四个提示变体,并比较了两种方式下的性能表现,发现只能应用于GPT 3.5及以上的模型。在WMT22的Leaderboard中,GEMBA在三种语言对中具有先进的性能表现。
Feb, 2023
本文研究大型语言模型(LLMs)在机器翻译(MT)中的应用,发现使用 GPT-3 等模型的翻译虽然在质量上相当或更好,但在语句的逐字逐句的程度上比标准 NMT 模型的翻译要少。此外,当翻译的句子中包含习语表达时,这种差异尤为明显。
May, 2023
这篇论文探讨了将翻译目的和目标受众整合到ChatGPT的提示中对所生成翻译质量的影响。研究强调了翻译过程中的前期准备阶段的重要性,通过借鉴以往的翻译研究、行业实践和ISO标准进行分析。研究发现,在像ChatGPT这样的大规模语言模型中加入适当的提示可以产生灵活的翻译,而传统的机器翻译尚未实现这一目标。通过使用OpenAI的词嵌入API进行余弦相似度计算,评估从从实际翻译员的视角主观和定性地进行,结果表明将翻译目的和目标受众整合到提示中确实可以修改所生成的翻译,从而在行业标准上普遍提高翻译质量。该研究还展示了“良好的翻译”概念的实际应用,特别是在营销文件和文化习语的背景下。
Aug, 2023
使用大型语言模型开发的多语言习语知识库(IdiomKB)能够提高机器翻译模型的性能,通过检索习语的比喻含义,使较小的模型在翻译过程中得到更全面的理解。
Aug, 2023
机器翻译的一个挑战是正确翻译习语表达,本研究提供了对习语翻译及相关问题的简单描述,并通过实验找到了适合使用习语翻译的临界点。为了丰富多语种资源,我们编制了一个包含法语、芬兰语和日语中约4千个自然句子的数据集,同时引入了两种简单而有效的技术来改进自然习语的翻译,这不仅在习语句子的准确性上提高了强大预训练机器翻译模型达到了13%的绝对准确度,而且也对非习语句子存在潜在的好处。
Oct, 2023
使用上下文进行消歧的语义歧义翻译挑战,研究了英语本身存在的开放性短语歧义,并创建了一个包含消歧上下文的512个英文句子对的TIDE数据集。研究发现当前的机器翻译模型在翻译短语时倾向于直译,而语言模型则更加关注上下文,并强调了语言模型作为上下文感知翻译中坚力量的潜力。
Oct, 2023
GPT-4利用上下文学习来提高翻译准确性,通过精心选择最有效的示例,该方法极大地增强了机器翻译的准确性,消除了针对特定任务的精细调优的需求,不仅提高了翻译准确性,还丰富了对微妙语言结构的理解。这种方法在机器学习中表示了一大步,利用GPT-4的固有能力提供准确、语境丰富和语言复杂的翻译,克服了语言障碍,为跨文化交流和全球协作开辟了新的道路。
Nov, 2023
通过改进大型语言模型对惯用语的处理,我们旨在提高翻译的准确性,同时保留原有的语言风格,以确保翻译文本保持意图和情感共鸣,促进跨文化交流。具有显著的社会影响力。通过扩展现有的知识库,我们使用两种方法进行翻译:第一种方法使用SentenceTransformers模型,在原语言和目标语言习语的含义之间生成余弦相似度分数,选择最佳习语;第二种方法利用大型语言模型,在目标语言中找到对应的习语进行翻译。通过英汉、汉英的人工评估,余弦相似度查找方法在所有GPT4o翻译中均表现优于其他方法。此外,我们还通过开发一种低资源的乌尔都数据集,包含乌尔都语的习语及其翻译,进一步扩充了知识库,展示了余弦相似度查找方法在消除语言障碍、探索中文和乌尔都的多样文学作品方面的潜力。
Jul, 2024
本研究针对大规模语言模型(LLMs),特别是GPT-4,在多语言对和领域中,对不同翻译专业水平的人类翻译员进行全面评估,发现GPT-4在总体错误数量上表现与初级翻译员相当,但在中级和高级翻译员之下。我们还观察到在不同语言和领域中性能不平衡,GPT-4的翻译能力从资源丰富的方向逐渐减弱。此外,我们定性地研究了GPT-4和人类翻译员的翻译结果,发现GPT-4的翻译存在逐字翻译的问题,而人类翻译员有时过于思考背景信息。据我们所知,本研究是首次对LLMs与人类翻译员进行评估并分析其输出之间的系统差异,为我们了解基于LLM的翻译目前的状态和潜在限制提供了有价值的见解。
Jul, 2024