通过 QLoRA 探索 LLM 中的事实记忆和风格模仿:实验研究与质量评估方法
提出了一种结合 Mixture-of-Experts 和 Low-Rank Adaptation 的方法 MoRAL,用于有效地进行大型语言模型的终身学习,使用问题 - 答案对作为输入以提高鲁棒性和效率,并通过新的评估基准和指标对其进行了全面评估。
Feb, 2024
基于复杂情境的知识融合方法推进领域语言模型在问题回答任务上的准确率,展示了适应 Paucity-Constrained 复杂推理适应于各个领域的高效性和适应性。
Mar, 2024
使用参数高效微调(PEFT)方法中的量化模型,通过细调大型语言模型(LLMs)自动为短答案和论文分配连续数值评分以及生成相关反馈,达到高准确性且成本和延迟相对较低。
May, 2024
利用对比学习以鼓励专家学习不同特征的方式,我们介绍了一种新的参数效率微调方法 MoELoRA,它在数学推理和常识推理基准测试中表现显著优于 LoRA 和 GPT-3.5。
Feb, 2024
本文介绍了一种名为 “Low Rank Adaptation” 的 PEFT 方法,并在临床对话摘要任务中展示了其评估结果,这种方法与端到端的调优效果相当。
Jul, 2023
LoRA 是一种使用较少参数和内存的训练方法,研究表明,在低秩适配器的支持下,LoRA fine-tuned 模型在多个任务上表现超过基准模型 34 个百分点和 GPT-4 10 个百分点;此外,他们开发了 LoRAX 多模型推理服务器,支持多个 LoRA fine-tuned 模型在单个 GPU 上运行,以展示使用多个专用 LLM 相对于单个通用 LLM 的质量和成本效益。
Apr, 2024
使用低秩适应(LoRA)和预训练语言模型(PLMs)的方法已成为一种流行的资源高效性建模方法,本研究首先探讨了通过引入各种 LoRA 培训策略来提高模型性能,相对词错误率减少了 3.50%和 3.67%,并且进一步检验了 LoRA 基于二次通过语音识别模型的稳定性和对输入扰动的鲁棒性。
Jan, 2024
本研究通过使用 Parameter-Efficient Fine-Tuning 中的 Low-Rank Adaptation (LoRA) 探索了复杂且未被充分研究的多语言摘要任务的潜力,研究发现 LoRA 在低数据情况和跨语言转移中表现出色,当模型增大时,LoRA 和完全微调之间的性能差距减小,同时,继续训练 LoRA 获得了最佳的少样本跨语言转移表现。
Nov, 2023
介绍了一种名为 “重述和回答”(RaR)的方法,通过使人类的问题被大型语言模型(LLMs)重述和展开,从而在单个提示中提供回答,以提高 LLM 的性能。还介绍了 RaR 的两步变体方法,通过将问题由一个 LLM 重述后传递给另一个 LLM,有效地利用了由一个 LLM 生成的重述问题。实验证明这些方法显著提高了不同模型在各种任务上的性能,并与 Chain-of-Thought(CoT)方法进行了综合比较,发现 RaR 与 CoT 互补,结合使用效果更好。该工作不仅对提高 LLM 性能具有高效和有效的贡献,还对公正评估 LLM 能力具有重要意义。
Nov, 2023
通过探索不同的提示策略对 LLM 的置信度校准的影响以及如何改进,本文提出了 Fact-and-Reflection(FaR)提示法,它通过两个步骤改善 LLM 的校准,同时大幅降低了预期校准误差,并在更自信的场景中还能引发检索增强来解决更难的情况。
Feb, 2024