Nov, 2023

优化和微调大型语言模型用于城市更新

TL;DR通过在城市更新领域中自动产生问答数据集,并使用 Prefix 和 LoRA 的联合微调方法对模型进行联合微调训练,本研究提出的联合微调训练方法能够显著提高 LLM 在知识问答任务上的性能,相比 LoRA 微调,该方法使测试中的 Bleu 和 Rouge 指标提高了约 5%;相比微调前的模型,该方法使 Bleu 和 Rouge 指标提高了约 15% -20%。该研究证明了在城市更新知识问答任务中使用 Prefix 和 LoRA 的联合微调方法对 ChatGLM 的有效性和优越性,为 LLM 在城市更新相关任务上的微调提供了新的方法。