使用精调预训练的大型语言模型进行法律文件起草
近期自然语言处理(NLP)在法律领域的应用面临诸多挑战,包括极长的序列长度、专业词汇仅律师才能理解以及数据不平衡。大型语言模型(LLMs)的出现为 NLP 在法律领域提供了新的机会。本研究旨在量化普通 LLMs 与领域特定模型在法律领域的表现,通过比较三个通用 LLMs(ChatGPT-20b,LLaMA-2-70b 和 Falcon-180b)在 LexGLUE 合同条款分类基准测试集上的零样本性能。尽管 LLMs 未经专门训练法律数据,但我们观察到它们在大多数情况下仍能正确分类主题。然而,我们发现它们的微 F1 / 宏 F1 性能比在法律领域微调的较小模型要低 19.2/26.8%,这凸显了需要更强大的法律领域 LLMs。
Nov, 2023
本文介绍了如何将大型语言模型 LLMS 应用于法律领域,对应用于法律任务的不同方法进行了讨论,并探讨了使用 LLMS 所引发的隐私、偏见等法律问题,提出了数据资源领域学习上下文中的一些潜在方向。希望为当前 LLMS 的法律应用现状提供概述,同时强调其集成的潜在益处和挑战。
Mar, 2023
公开可获得的最好的 LLM(如 GPT-4 和 PaLM 2)在律师或律师助理所需的基本文本处理方面表现不佳,我们引入了一个基准来量化这种不良表现,这对于目前的 LLMs 在法律实践中的可靠性提出了疑问。为这些任务进行微调使得一种旧的 LLM 在我们的测试集上接近完美的表现,并提高了与法律相关的任务的表现。这个鲜明的结果凸显了在 LLM 训练中需要更多的领域专业知识。
Nov, 2023
本文研究了如何在持续训练过程中注入领域知识以及如何设计正确的监督微调任务来帮助模型解决实际问题,在加入检索模块并提取相关文献的情况下,我们的模型可以更可靠地生成答案。
May, 2023
通过在中国法律领域构建超过 100 万个查询的数据集,并实现数据筛选和处理流程以确保其多样性和质量,我们介绍了 InternLM-Law,这是一个专门为回答与中国法律相关的各种法律问题而量身定制的大型语言模型。我们的训练方法涉及一种新颖的两阶段过程:首先在法律特定和通用内容上对 LLM 进行微调,以使模型具备广泛知识,然后在高质量的法律数据上进行独家微调以增强结构化输出生成能力。InternLM-Law 在 LawBench 上的平均表现最高,在 20 个子任务中有 13 个超过了包括 GPT-4 在内的最先进模型。我们公开提供 InternLM-Law 和我们的数据集,以促进将 LLM 应用于法律领域的未来研究。
Jun, 2024
LawGPT 是第一个专门为中国法律应用设计的开源模型,通过在大规模中国法律文件上进行法律导向的预训练和法律指导下的精细调优,LawGPT 在下游法律任务的表现优于开源模型 LLaMA 7B。
Jun, 2024
本研究探讨了如何从零开始构建多个特定领域的多语言语言模型,并测试了它们在法律语料库上的效果。同时,研究者还讨论了模型的压缩方法,以减少计算资源和经济成本并保持模型性能。
Oct, 2022
人工智能和大型语言模型的进步正在给法律领域的自然语言处理任务带来深刻的转变。大型语言模型在法律部门展示出越来越多独特的优势和各种挑战。本调查研究了大型语言模型与法律系统之间的协同作用,例如在法律文本理解、案例检索和分析等任务中的应用。此外,该调查还突出了大型语言模型在法律领域面临的关键挑战,包括偏见、可解释性和道德考虑,以及研究人员如何解决这些问题。调查展示了针对不同法律体系量身定制的最新进展,以及用于各种语言的大型语言模型微调的法律数据集。此外,它提出了未来研究和发展的方向。
Apr, 2024
本研究探讨了对预训练大型语言模型(LLMs)进行微调和应用于特定领域的方法,重点关注 LLMs、基础模型和特定领域预训练方法的趋势。针对金融行业,研究详细介绍了数据集选择、预处理、模型选择和金融领域 LLM 微调的关键考虑因素。通过实例展示了 LLM 微调在金融领域的实际应用,包括股价预测、金融新闻情感分析、自动文档处理、信息提取和客户服务的增强。本研究旨在推进自然语言处理技术在商业领域的应用,建议积极利用 LLM 在金融服务等行业中的潜力。
Jan, 2024