FireAct:面向自然语言智能体的微调
大语言模型在与环境进行交互时存在工具使用方面的优化限制,然而通过适当的数据清理和微调策略,大语言模型可以从失败中学习并显著提高性能。
Feb, 2024
通过精调模型和对称相似度、LLM 评估和 Rouge-L 分数等指标的连续反馈循环来提高人工智能模型,利用金融数据集和检索增强生成技术 (RAG),证明精调模型在问题回答能力方面能够超越零 - shot LLMs 的准确性。
Jan, 2024
AgentTuning 是一种简单且通用的方法,可以提高大型语言模型在代理任务方面的能力,同时保持其一般能力。该方法通过使用 AgentInstruct 与通用领域的开源指令相结合的混合指令调整策略对 Llama 2 系列进行了指令调整,从而得到 AgentLM。评估结果显示,AgentTuning 能够提升语言模型的代理能力而不影响其一般能力,AgentLM-70B 在未知代理任务上与 GPT-3.5-turbo 相媲美,展现了广义的代理能力。我们在指定的网址开源了 AgentInstruct 和 AgentLM-7B、13B 和 70B 模型,为代理任务提供了开源和强大的替代方案。
Oct, 2023
通过构建特定于代理的数据和有监督微调模型,以及设计有效激活大型语言模型推理能力的提示方法,我们提出了一种综合的方法来提高大型语言模型作为代理的性能,并通过在 AgentBench 的五个代理任务上的评估取得了令人满意的结果。
Mar, 2024
通过重新设计训练语料库,Agent-FLAN 可以有效地对语言模型进行微调,从而提高代理模型在各种评估数据集上的性能,此外,Agent-FLAN 还能显著减轻幻觉问题,并在略微提高通用能力的同时,不断提高语言模型的代理能力。
Mar, 2024
该论文介绍了一种名为自然语言反馈微调 LLM(LaFFi)的替代方法,通过要求 LLM 直接预测从评注者那里得到的反馈,显著提高了领域内问答任务的准确性,为自然语言反馈在 SFT LLMs 领域的应用提供了一个有前途的方向。
Dec, 2023
LM-BFF 提出了一种改进的面向小型语言模型的少样本 fine-tuning 方法以提升在多种 NLP 任务上的性能。通过与传统的 fine-tuning 方法相比,LM-BFF 组合的技术在低资源环境下具有显著改进,最高可达 30%,平均提高 11%。
Dec, 2020
通过使用外部工具对语言模型进行增强,可缓解传播误差和幻觉等挑战,特别是在数据异构、精确性至关重要的金融领域。我们将监督微调应用于 LLaMA-2 13B Chat 模型,使其成为 ' 任务路由器 ' 和 ' 任务解决器 '。通过使用金融领域的问答数据集,我们的模型 Raven 在改进基准模型和仅进行监督微调的基线模型上分别显示了 35.2% 和 5.06% 的改进,并且与 GPT-3.5 取得了很好的竞争效果。据我们所知,这是首个探索对金融领域的语言模型进行工具增强的研究。
Jan, 2024