通过利用开源项目中的大规模指令遵循数据集,我们采用参数高效调整方法对两个开放许可的大语言模型(Bloomz和GPTJ)进行了调整,使其在越南语上取得了显著的性能提升,并通过自动评分机制证明我们的方法相对于原始模型在评估任务上的效果提升了约20-30%。
Sep, 2023
数据管理在大型语言模型的训练中起着基础性的作用,本文调查了数据管理在预训练和有监督微调阶段的各个方面,包括数据数量、数据质量、领域/任务组成等,为构建强大的大型语言模型提供了指导资源。
Dec, 2023
大语言模型的微调方法的缩放因子对模型性能的影响的系统实验结果表明,LLM finetuning 遵循微调数据量与其他缩放因子之间的幂函数乘法联合缩放规律,LLM 模型尺寸的扩大比预训练数据尺寸的扩大对 finetuning 更有益处,而仅考虑参数缩放的效果通常并不明显,同时最优的 finetuning 方法与任务和微调数据相关联,这些结果对于选择和开发 LLM finetuning 方法具有指导意义。
Feb, 2024
通过开发和传播越南语RAG和LLMs的开放式数据集和预训练模型,本文介绍了我们对越南语言理解和生成领域的贡献。
Mar, 2024
通过为越南语进行精细调整并开发了综合评估框架,我们发现精细调整的大型语言模型在越南语上表现出更好的理解和生成能力,并且模型规模和训练数据质量对模型的性能有重要影响。
通过自动数据加工管道CLEAR (Confidence-based LLM Evaluation And Rectification)对指令调谐数据集进行自动加工,提高模型性能。
使用以预训练大型语言模型(LLM)为基础的LLM2LLM方法,通过数据增强和迭代,显著提高LLM在低数据情况下的性能,优于传统的微调和其他数据增强方法,减少了对数据策划的依赖,为更可扩展和高性能的LLM解决方案铺平了道路。
对于任务建模方法、提示格式和输出格式等因素,我们通过将大型语言模型进行微调来研究其对中文短文本匹配任务的性能影响。
研究探讨了大型语言模型在细调、提取上下文数据和性能增强方面的影响,以及它们在多个领域的应用情况,并指出了细调模型在特定任务中性能下降的问题。
Jun, 2024
本报告探讨了大型语言模型(LLMs)的微调,结合理论见解与实践应用,填补了传统自然语言处理(NLP)模型到AI关键角色之间的研究空白。报告引入了一个结构化的七阶段微调流程,并强调管理不平衡数据集和优化技术。显著发现是采用高效参数方法能够在计算效率和性能之间取得良好平衡,报告为研究者和从业者提供了实用的见解。
Aug, 2024