在危机场景中利用大语言模型进行机器翻译:低资源语言的蓝图
使用FLORES-200基准测试,我们提供了首个针对204种语言的实验证据和机器翻译成本分析,发现GPT模型在某些高资源语言上接近或超过传统机器翻译模型的性能,但在低资源语言上表现一直落后于传统机器翻译,对于我们覆盖的语言中的84.1%,ChatGPT的翻译能力低于传统机器翻译模型水平。我们的分析表明,语言的资源水平是决定ChatGPT相对翻译能力的最重要特征,并且暗示ChatGPT在低资源语言和非洲语言上处于劣势。
Sep, 2023
通过使用开放源代码的大型语言模型LLAMA2,我们介绍了一种新的方法来从社交媒体帖子和直接应急信息中识别和分类紧急情况,旨在利用自然语言处理和机器学习的力量,为公共安全通信员和大规模人群在全国范围内的紧急情况提供帮助,并开发了一种语言模型,使其能够理解用户在911呼叫中描述的情况,使LLAMA2能够分析内容并向通信员提供相关指示,并在必要时创建工作流程以通知政府机构与呼叫者信息。这种语言模型的另一个好处是在911系统不堪重负时能够帮助用户提供简单的指导并向相关部门提供其位置和紧急信息。
Jan, 2024
通过开发 adaptMLLM,我们针对机器翻译开发了一个开放源代码应用程序,旨在解决多语言语言模型在低资源语言中开发高质量机器翻译输出方面的问题,并提供易于定制的界面以及各种模型评估指标和在应用程序中直接部署模型作为翻译服务的能力。
Mar, 2024
本文旨在探索使用大型语言模型(LLMs)将英文翻译成蒙巴依语,一种在东帝汶使用的语言,本研究使用少量数据对LLM进行指导,以提高低资源语言的机器翻译质量。
Apr, 2024
通过大型语言模型和机器翻译模型相结合,解决千禧年后对未来10年内的1000万医护人员缺口问题。该模型提供医疗知识和诊断工具以满足社区医护人员的特殊需求,并通过开源组件显著降低医疗运营成本,以改善低收入和中等收入国家的医疗服务质量。
Apr, 2024
大型语言模型在同时机器翻译任务中表现出与某些最先进基准系统相当或更好的性能,并且注入最少的背景信息(容易实现)可以进一步提高性能,尤其是在具有挑战性的技术主题上。这凸显了大型语言模型构建下一代大规模多语言、上下文感知和术语准确的同时翻译系统的潜力,而无需资源密集型的训练或微调。
Jun, 2024
本研究通过一系列实验翻译南安第斯克丘亚语为西班牙语,探究预训练大型语言模型在自动化机器翻译中从低资源语言到高资源语言的上下文学习能力。实验结果表明,即使是相对较小的语言模型,在提供了足够相关语言信息的情况下,能够通过提示上下文实现零样本低资源翻译。然而,提示类型、检索方法、模型类型和语言特定因素的不确定效果突显了即使是最佳的语言模型也存在于世界上7000多种语言及其使用者的翻译系统中的限制。
Jun, 2024
本文探讨了将大型语言模型(LLMs)适应低资源翻译所需的条件,重点分析了平行数据的重要性和监督微调中的多样性对性能的影响。研究发现,平行数据在预训练和微调过程中对低资源LLM-MT至关重要,而多样性往往导致干扰而非迁移。这些发现具有普遍性,对提升低资源语言的多语种LLM-MT模型具有重要价值。
Aug, 2024
本研究针对大型语言模型(LLMs)主要在英语环境中评估的不足,特别是对南亚低资源语言的探讨进行了深入分析。研究采用了零-shot 提示和五种不同的提示设置,结果表明,GPT-4在各语言模式下均优于Llama 2和Gemini,且所有三种模型在英语提示下表现优于其他低资源语言提示。这一发现强调了针对低资源语言的LLMs改进需求,以推动更通用的自然语言处理应用的发展。
Oct, 2024
本研究解决了多语种大型语言模型(MLLMs)实际实施指南缺乏的问题,提供了一个全面的开发和部署框架。通过对Llama2的案例研究,提出了优化多语种能力的策略,并深入分析了实施过程中的技术、语言和文化视角。研究发现88.38%的世界语言被归类为低资源,影响超过十亿使用者,强调了对语言多样性的支持的重要性。
Oct, 2024