对话式金融信息检索模型 (ConFIRM)
通过数据中心的方法,我们提出了一种能够更好地处理金融任务的金融 LLM(FLLM)模型,通过多任务提示优化来对数据进行预处理和预理解,并通过推断增强推理(AAR)自动生成训练数据,实验结果表明,我们的数据中心 FLLM 模型显著优于基于原始文本的金融 LLMs,在金融分析和解释任务上达到了最新水平,我们还开源了一个新的金融分析和解释基准,这种方法为解锁 LLMs 在复杂现实领域的潜力提供了希望。
Oct, 2023
基于大型语言模型,通过使用常见的金融公式生成金融问题回答数据,FinLLMs 方法提供一种解决数据资源有限和注释成本高昂问题的方法。实验结果表明,由 FinLLMs 生成的合成数据有效地提升了金融领域几个大规模数值推理模型的性能,超过了两个常用基准金融问题回答数据集。
Jan, 2024
本研究通过利用法律和金融数据的半结构化特点,实现有效检索相关背景知识来解决将现有问答系统应用于法律和金融等专业领域所面临的挑战,使得大型语言模型在领域特定的问答任务中表现优异,同时提供有用的答案解释,鼓励将大型语言模型整合到未来的法律和金融自然语言处理系统中进行研究。
Oct, 2023
本研究旨在探讨大规模预训练语言模型在金融领域中实现数值推理的挑战,提出了一个新的大规模数据集 ConvFinQA,对其进行了综合性实验和分析,为研究实际世界中复杂推理任务提供新的资源。
Oct, 2022
在金融情感分析领域,传统的 NLP 模型受到参数大小和训练数据范围的限制,以及简洁的财经新闻文本缺乏上下文的问题,而无法很好地泛化和提高准确性。为了解决这些挑战,本研究引入了一种基于检索增强的大型语言模型(LLMs)框架,该框架包括一个指导调整的 LLMs 模块和一个从可靠外部来源检索附加上下文的模块。与传统模型和 ChatGPT、LLaMA 等 LLMs 相比,我们的方法在准确性和 F1 得分方面取得了 15%到 48%的性能提升。
Oct, 2023
人工智能在金融行业取得了重大进展,通过自动化复杂任务、增强客户服务和提供详细的金融分析等方式改变了数据的处理和解释方式。本研究提出了 IDEA-FinBench、IDEA-FinKER 和 IDEA-FinQA,分别针对大型语言模型在金融领域的应用所进行的评估基准、知识增强框架和基于问答系统的应用方案。
Jun, 2024
近期大规模语言模型 (LLM) 的发展在金融领域开创了人工智能应用的新可能性。本文提供了一份实用的调查报告,关注 LLM 在金融任务中的两个关键方面:现有解决方案和采用指南。首先,我们回顾了目前在金融领域中采用 LLM 的方法,包括通过零样本或少样本学习利用预训练模型,对领域特定数据进行微调,以及从头开始训练自定义 LLM。我们总结了关键模型并评估了它们在金融自然语言处理任务上的性能改进。其次,我们提出了一个决策框架,以帮助金融业专业人员根据数据、计算和性能需求选择合适的 LLM 解决方案。该框架提供了从轻量级实验到大规模投资自定义 LLM 的路径。最后,我们讨论了在金融应用中利用 LLM 所面临的限制和挑战。总的来说,该调查旨在综述最新技术并为负责任地应用 LLM 推动金融人工智能提供路线图。
Sep, 2023
我们提出了一种多专家微调框架来构建金融领域的大型语言模型(LLM),DISC-FinLLM。我们的方法通过赋予通用 LLMs 多轮问答能力、领域文本处理能力、数学计算技巧和检索增强生成能力来改进通用 LLMs。我们构建了一个金融指令微调数据集,名为 DISC-FIN-SFT,其中包括四个类别(咨询、自然语言处理任务、计算和检索增强生成)的指令样本。在多个基准测试中进行的评估表明,我们的模型在各种金融场景中比基准模型表现更好。更多资源可以在此 https 链接中找到。
Oct, 2023
我们提出了一种名为 CONQORD 的方法,利用强化学习和定制的双组分奖励函数,通过对齐可信度和响应质量来提高大型语言模型的可靠性和对齐表现,从而指导何时信任 LLMs 并在检索过程中使用外部知识。
Apr, 2024
通过使用外部工具对语言模型进行增强,可缓解传播误差和幻觉等挑战,特别是在数据异构、精确性至关重要的金融领域。我们将监督微调应用于 LLaMA-2 13B Chat 模型,使其成为 ' 任务路由器 ' 和 ' 任务解决器 '。通过使用金融领域的问答数据集,我们的模型 Raven 在改进基准模型和仅进行监督微调的基线模型上分别显示了 35.2% 和 5.06% 的改进,并且与 GPT-3.5 取得了很好的竞争效果。据我们所知,这是首个探索对金融领域的语言模型进行工具增强的研究。
Jan, 2024