负责任的多语种大型语言模型:发展、应用与社会影响的综述
本文介绍了多语种语言模型的工作原理及其在语言分析和生成方面的能力和局限性,并提供了关于开展大型和多语种语言模型研究、开发和部署时的建议。
Jun, 2023
该研究分析了多语言大型语言模型(MLLMs)的关键问题,包括语言不平衡、多语言对齐和固有偏差,探讨MLLMs的全球语言表示能力、偏见和挑战,并提出了有前景的研究方向。
Apr, 2024
对于大型语言模型(LLMs)的研究,包括基本原理、应用领域以及训练过程,本综述论文对于上下文学习、多种微调方法以及参数使用效率优化等机制进行探讨,同时深入研究了如何通过创新的强化学习框架和融入人类反馈的新方法来更好地与人类偏好相统一的问题。还研究了将外部知识融入LLMs的新兴技术——检索增强生成。对于LLMs的伦理问题,论文讨论了需谨慎且负责任的应用需求。最后,论文展望了未来的研究方向,提供了关于当今及未来LLMs领域中不断发展的全面且简明的概述,为人工智能领域的研究人员和实践者提供了有益的指南。
Apr, 2024
通过研究204种语言的多语言大型语言模型(MLLMs)在不同语言上的表现,考察了预训练数据大小、资源可用性、语言家族和脚本类型等因素对模型性能的影响,并发现对于已知语言来说,预训练数据大小是最重要的因素,而对于未知语言来说,脚本类型和语言家族至关重要。模型大小和结构并不显著改变最重要的特征,这些研究结果为当前MLLMs的优势和局限性提供了有价值的见解,并希望指导更有效、公平的多语言自然语言处理系统的开发。
Apr, 2024
对大型语言模型(LLMs)在多语种环境中的应用进行了综述,包括训练和推理方法、模型安全性、多领域与语言文化、数据集使用,同时讨论了相关方面的主要挑战和潜在解决方案,并提出了进一步增强语言模型的未来研究方向。
May, 2024
通过构建两个数据集,将 LLaMA 和 BLOOM 的多语言能力扩展到 100 种语言,并使用 DPO 算法对 LLMs 进行与人类反馈的对齐,实现了对 100 种语言的支持,从而定义了最新的、支持 100 种语言的多语言 LLMs 的最新技术。
Jun, 2024
在大型语言模型(LLMs)时代,构建能够为全球用户提供服务的多语言大型语言模型(MLLMs)具有重要意义。然而,现有研究很少关注MLLMs的真实性。同时,当代多语言对齐技术在平衡大量语言方面常常存在严重的真实性差距,特别是那些与英语差距较大的语言。在我们的工作中,我们构建了一个用于多语言场景下真实性评估的基准,并探索了跨语言对齐事实以增强MLLMs真实性的方法。此外,我们提出了面向事实感知的多语言选择协同(FaMSS),以优化大量语言和不同数据类型之间的数据分配。实验结果表明,我们的方法可以有效减少多语言表示差异并增强LLMs的多语言能力。
Jun, 2024
本文系统性综述了多语言大语言模型(MLLMs)的最新研究,填补了对其架构、预训练目标和评估标准的知识空白。研究表明,数据的质量和多样性对提升MLLM性能至关重要,同时提供了多语言评估基准,并探讨了这些模型在实际应用中的创新和挑战。
Nov, 2024
本研究针对多语言大型语言模型(MLLMs)的最新研究进行了全面的调研,填补了现有文献中关于多语言模型构建与评估的空白。文章提出了构建高质量的多语言预训练和对齐数据集的关键方法,并重点讨论了MLLMs在跨语言知识、推理和安全性方面的评估途径。研究结果表明,MLLMs在多个领域的应用潜力巨大,同时也面临着语言偏见和可解释性等挑战。
Nov, 2024