我们提出了一种改进的训练方法,使用更大的模型的知识来提高大型语言模型的训练效果,同时利用领域专家模型进行领域对齐,通过这种方法,在性能上超过了具有更大参数数量的现有语言模型。
Jun, 2024
通过知识蒸馏,从多个大型教师语言模型中学习小型学生语言模型 TinyLLM,以解决当前方法存在的知识多样性有限和缺乏丰富的上下文信息等问题,并通过引入上下文示例生成器和 teacher-forcing 链式推理策略来确保合理的推理基于适当情境,从而在两个推理任务的六个数据集上的广泛实验中展示了 TinyLLM 方法的优越性,结果表明尽管模型尺寸较小,但 TinyLLM 可显著优于大型教师语言模型。
Feb, 2024
使用以预训练大型语言模型(LLM)为基础的 LLM2LLM 方法,通过数据增强和迭代,显著提高 LLM 在低数据情况下的性能,优于传统的微调和其他数据增强方法,减少了对数据策划的依赖,为更可扩展和高性能的 LLM 解决方案铺平了道路。
Mar, 2024
通过使用大规模语言模型,我们提出了一种新的框架,通过从语言模型教师代理接收指导行为,训练一个小规模专用的学生代理。通过将语言模型的先验知识融入到本地学生模型中,该学生代理可以用较少的数据进行训练,并通过环境反馈进一步提升其能力。实验结果表明,我们的方法提高了样本效率,并实现了比基准方法更卓越的性能。
Nov, 2023
研究使用大型语言模型对输入进行注释以提高自然语言处理模型的泛化性,并提出一种基于模型预测得分差异的采样策略来重新训练模型,证明在分类和排名任务中取得了显著的精度提高。
Jun, 2023
通过细调教师大型语言模型产生和注释的数据,可以改善较小模型的下游性能,有时只需要原始训练数据的一小部分。
Oct, 2023
通过使用嵌入式算法来扩展预训练语言模型的能力,作者提出了一种证据支持的问答方法来展示这种方法的优势,相比于传统的 fine-tuning 方法,该方法获得了 6.4%的改进。
May, 2023
提出了一种自动生成大量数据增强指令并选择最适合任务的指令的新解决方案,从而赋予 LLM 创建高质量增强数据用于不同的下游任务的能力。在 26 个少样本学习任务中,该方法一致生成比非 LLM 和基于 LLM 的数据增强方法质量更好的增强数据,表现最佳。
Apr, 2024
LlamBERT 利用 Llama 2 和 GPT-4 等大型语言模型标记一小部分大型未标记数据库,通过结果对 BERT 和 RoBERTa 等 Transformer 编码器进行微调,以提高成本效益。
通过使用 CoThought 流水线,我们可以有效地训练较小的 BabyLM 语言模型,从而利用 LLMs 的上下文学习能力,将小于 100M 的数据集转变为适用于语言学习者的任务导向的可读文本,经 RoBERTa 的预训练后,BabyLM 在多项语言学、NLU 和问答任务中表现优越,超过 RoBERTa-base 的性能 3 个点以上,显示出更好的上下文信息提取能力。
Aug, 2023