面向数据的金融大型语言模型
基于大型语言模型,通过使用常见的金融公式生成金融问题回答数据,FinLLMs 方法提供一种解决数据资源有限和注释成本高昂问题的方法。实验结果表明,由 FinLLMs 生成的合成数据有效地提升了金融领域几个大规模数值推理模型的性能,超过了两个常用基准金融问题回答数据集。
Jan, 2024
近期大规模语言模型 (LLM) 的发展在金融领域开创了人工智能应用的新可能性。本文提供了一份实用的调查报告,关注 LLM 在金融任务中的两个关键方面:现有解决方案和采用指南。首先,我们回顾了目前在金融领域中采用 LLM 的方法,包括通过零样本或少样本学习利用预训练模型,对领域特定数据进行微调,以及从头开始训练自定义 LLM。我们总结了关键模型并评估了它们在金融自然语言处理任务上的性能改进。其次,我们提出了一个决策框架,以帮助金融业专业人员根据数据、计算和性能需求选择合适的 LLM 解决方案。该框架提供了从轻量级实验到大规模投资自定义 LLM 的路径。最后,我们讨论了在金融应用中利用 LLM 所面临的限制和挑战。总的来说,该调查旨在综述最新技术并为负责任地应用 LLM 推动金融人工智能提供路线图。
Sep, 2023
本文对大规模语言模型在金融领域中的应用进行了可行性研究,探讨了任务形式、数据生成、提示方法和评估能力等方面,发现在 6B 参数时可以生成相关的金融推理结果,并提供了名为 sFIOG 的公开数据集,以支持未来的研究。
Apr, 2023
使用大型语言模型(LLMs)在金融领域中的机器学习应用的最新进展,探讨了 LLMs 在各种金融任务上的应用,重点在于它们改变传统做法和推动创新的潜力,提供了进展和优势的讨论,包括上下文理解、迁移学习的灵活性和复杂情感检测等高级技术,以及将现有文献分类为主要应用领域,包括语言任务、情感分析、金融时间序列、金融推理、基于代理的建模和其他应用,详细介绍了每个应用领域的具体方法论,如文本分析、基于知识的分析、预测、数据增强、规划、决策支持和模拟。此外,还提供了与主流应用相关的数据集、模型资源和有用代码等资源,作为研究人员和实践者的参考。最后,概述了未来研究中的挑战和机遇,特别强调了该领域的几个独特方面。希望我们的工作能促进 LLMs 在金融领域的采用和进一步发展。
Jun, 2024
在金融情感分析领域,传统的 NLP 模型受到参数大小和训练数据范围的限制,以及简洁的财经新闻文本缺乏上下文的问题,而无法很好地泛化和提高准确性。为了解决这些挑战,本研究引入了一种基于检索增强的大型语言模型(LLMs)框架,该框架包括一个指导调整的 LLMs 模块和一个从可靠外部来源检索附加上下文的模块。与传统模型和 ChatGPT、LLaMA 等 LLMs 相比,我们的方法在准确性和 F1 得分方面取得了 15%到 48%的性能提升。
Oct, 2023
通过使用外部工具对语言模型进行增强,可缓解传播误差和幻觉等挑战,特别是在数据异构、精确性至关重要的金融领域。我们将监督微调应用于 LLaMA-2 13B Chat 模型,使其成为 ' 任务路由器 ' 和 ' 任务解决器 '。通过使用金融领域的问答数据集,我们的模型 Raven 在改进基准模型和仅进行监督微调的基线模型上分别显示了 35.2% 和 5.06% 的改进,并且与 GPT-3.5 取得了很好的竞争效果。据我们所知,这是首个探索对金融领域的语言模型进行工具增强的研究。
Jan, 2024
研究通过比较三种大型语言模型与专家标注者和众包工人标注的金融文档,发现大型语言模型可作为提取金融文档中关系的高效数据标注工具,并引入了一个可靠性指标用于识别需要专家关注的输出,提供了在特定领域设置中自动化注释的收集和使用的建议。
Mar, 2024
该研究针对金融领域进行了大规模语言模型(LLM)的适应性研究,并着重研究了金融情感分析,发现通过精细调整基础模型并结合金融文档和指令数据集,小型 LLM 在性能上与大型模型可媲美,而且在参数和数据方面更高效。此外,研究还展示了如何通过 LLM 生成人工指令以增加指令数据集的样本数量。
Jan, 2024
本篇论文主要介绍了如何通过自监督后训练和上下文学习来增加逻辑知识,从而提高语言模型的逻辑推理能力,取得了比现有基线更好的效果。
May, 2023