FinGPT:小语种的大型生成模型
本文介绍了 BloombergGPT, 这是一个在大量金融数据上训练得到的具有 500 亿参数的语言模型。通过使用混合数据集进行训练,我们得到的模型不仅在金融任务上表现出色,还在普遍的 LLM 基准测试上得到了不错的表现,同时也解释了模型构建、训练过程和评估方法。
Mar, 2023
本文介绍了一种基于数据驱动和透明资源的开源金融领域大型语言模型(FinGPT),通过自动数据处理管道和低秩度量适应技术,为研究人员和从业者提供访问、透明的资源,并展示了机器人顾问、算法交易和低代码开发等潜在应用。
Jun, 2023
金融行业中,大型语言模型(LLMs)表现出了非凡的水平,在理解和生成类似人类的文本方面具有巨大的潜力,然而,现有的 LLMs 在金融领域中存在不足之处,这主要归因于一般文本数据和金融文本数据之间的差异。为了解决这个问题,我们引入了一种开源数据为中心的框架 —— 金融生成预训练 Transformer(FinGPT),通过自动收集和筛选来自互联网上的实时金融数据,为研究人员和从业人员提供了开放和透明的资源,以开发他们的 FinLLMs。此外,我们提出了一种简单而有效的策略,即使用市场的内在反馈进行 FinLLM 的精细调整,称为股票价格强化学习(RLSP)。最后,我们展示了几种 FinGPT 的应用,包括机器顾问,算法交易的情感分析以及低代码开发。FinGPT 旨在民主化金融领域的 LLMs,激发创新,并在开放金融领域中开启新的机会。
Jul, 2023
本文系统地研究了大型语言模型在多语言机器翻译中的优势和挑战,并在 102 种语言上评估了 XGLM、OPT、BLOOMZ 和 ChatGPT 四种常见模型的性能。在进一步分析中,本文发现大型语言模型在多语言机器翻译中具有一些新的工作方式。
Apr, 2023
本文主要介绍了采用预训练的深度学习语言模型用于自然语言处理的相关研究,特别是新型的 transformer-based BERT 模型。与其他大多采用英语等高资源语言的研究不同,本文侧重于针对冷门语言芬兰语的研究,探索基于多语言模型 Fine-tune 和基于芬兰语数据单独训练的模型的性能比较,实验结果表明后者的表现较好,成为当前芬兰语 POS 标注、NER 和依存分析任务的先进模型。
Dec, 2019
利用大型语言模型的丰富语言知识和强大的推理能力,我们提出了一种新的生成式翻译范式 ——“GenTranslate”,可以从 N 个候选译文中生成更高质量的翻译结果,并且在各种语音和机器翻译基准测试中明显优于现有模型。
Feb, 2024
本篇论文通过对一个多语种预训练语言模型 XGLM-7B 进行微调并给出指示进行多语种翻译的实验,展示了预训练语言模型在翻译任务中的较强能力,并发现其翻译能力依赖于对翻译指令的理解和语言之间的对齐,研究结果可启发模型改进。
May, 2023
本研究提出了三种策略以增强不太具备资源的语言在大型语言模型中的表现:扩展词汇表、使用双语数据进行预训练以对齐高资源语言和低资源语言、构建高质量的小规模指令数据集并进行指令微调。通过对比八个任务的其他大型语言模型,在质量分析中,我们的提出的 Bllossom 模型表现出优异的性能。
Mar, 2024
通过提出一种新的微调方法,我们设计了一种面向翻译任务的先进语言模型的翻译器 ALMA,该模型在 WMT'21 和 WMT'22 的测试数据集上相比于之前的工作和具有 7B 或 13B 参数的模型有着显著性能提升,并为机器翻译领域的新的训练范式奠定了基础。
Sep, 2023