- Codebook LLMs:政治科学代码本的 LLM 应用和 LLMs 遵循代码本的调整
通过使用大型语言模型,在政治科学数据集上进行指令调整,可以在零样本分类中显著提高性能。
- 多模态大型语言模型实现活动的时间连接
通过结合基于图像和基于文本的大型语言模型,这篇论文在两个阶段的方法中评估近期多模态大型语言模型在时间活动定位中的有效性,并表明此方法胜过现有的基于视频的大型语言模型;此外,论文还研究了对较小的多模态语言模型进行指导调整的影响,结果显示提高其 - RE-Adapt: 大型语言模型的逆向工程适应
通过逆向设计适配器,我们介绍了 RE-Adapt 方法,该方法无需使用额外的数据或训练,可以在新域上对基础模型进行微调,并借助逆向设计的适配器重新适应指令跟踪,以优于其他微调方法。
- 双向指令调整:Bitune
Bitune 是一种改进预训练的字节码模型的指令调优方法,通过采用因果和双向注意力来获得更好的查询或指令表示,进而通过参数化和可训练系数的加权平均生成新的标记,显著提高了常识推理、算术和语言理解等任务的零 - shot 性能。
- HumanRankEval: 作为对话助手的语言模型的自动评估
为了加快语言模型作为对话助手的发展,我们提出了一种新的自动评估任务:HumanRankEval(HRE)。它由一个大规模、多样化和高质量的问题集组成,每个问题都有几个由人类撰写和评分的答案。通过对 HRE 排列这些答案并计算它们与相应人类排 - 指令调优时代的可控文本生成
基于 Instruction-tuned 模型的可控文本生成,使用基于提示的方法超过了其他可控文本生成方法,在大多数数据集和任务上匹配人类表现,突出了对更多约束和具有挑战性的风格任务的研究的需求。
- 面向事实知识回忆的 LLM 综合评估
评估大型语言模型的事实记忆能力及其影响因素,涵盖多个领域、知识流行度水平和模型家族,并观察到指令调整对知识召回的负面影响、模型规模对性能的正面影响以及反事实演示对大模型事实知识召回的降低作用。
- 微调、提示、上下文学习和指导微调:我们需要多少标记样本?
在本研究中,我们旨在调查专用模型需要多少标记样本才能达到优越性能,同时考虑结果方差。我们通过观察提示、上下文学习、微调和指令调整的行为,确定它们在增加不同复杂度任务的标记训练样本数量时的平衡点,发现专用模型通常只需要少量样本(100-100 - 小型语言模型能为较大语言模型选择调整训练数据
通过基于样本学习百分比的训练数据选择,我们展示了当前语言模型具备自主选择高质量训练数据的能力,这极大地降低了训练成本且达到或超过整个数据集训练的性能表现。
- 大规模语言模型的稀疏微调扩展
大型语言模型 (Large Language Models) 在指令或人类反馈方面很难进行全面的微调,但参数高效稀疏微调 (sparse fine-tuning) 的方法已经在性能上取得了一定的成果,本文将稀疏微调方法扩展到像 LLaMA - Airavata: 引入印度语指令调整的 LLM
通过将多样化的指令调整的印地语数据集应用于 OpenHathi,我们发布了适用于辅助任务的 Airavata 模型,并共享了 IndicInstruct 数据集,为进一步研究印地语 LLM 提供支持。此外,我们还提供了评估基准和一种评估印地 - 台风:泰国大型语言模型
泰国的 Typhoon 超大语言模型是为泰语开发的,本技术报告介绍了开发泰语 LLMs 的挑战和见解,包括数据准备、预训练、指令调整和评估。
- 令牌化对 LLaMa 俄文适应性的影响
通过词汇替换来解决 LLaMa 俄语适应问题,提高模型质量并加速微调和推理,同时减少内存消耗。
- 指令调整将 LLMs 对齐到人脑
指导调优对大型语言模型(LLMs)进行调优的普遍方法,能够使其生成更接近自然语言查询的人类响应的输出,在许多情况下在各种测试中实现人类水平的性能。然而,指导调优是否真正使 LLMs 更加与人类处理语言的方式相似仍不清楚。我们通过两种方式研究 - EMNLP使用查询聚合的指导性对话摘要
通过引入指导训练到对话中,我们提出了一种三步方法来合成高质量的基于查询的摘要三元组。通过在三个摘要数据集上训练统一模型 InstructDS,我们扩展了对话摘要模型的能力,并在人类主观评估中得到了更高的泛化能力和忠实度。
- JMedLoRA:使用指导调整的日语大型语言模型的医疗领域适应
通过 LoRA-based instruction-tuning 来提高日本医学问答任务的性能,在多项选择题的评估中发现其可以部分地将领域特定知识整合到大型语言模型中,较大模型效果更显著,并突出了将英语为中心的模型适应于日本应用的潜力,同时 - EMNLP探索 - 指导:通过主动探索增加领域特定指导范围
通过数据探索实现领域指导调整的数据覆盖增强方法,提高指导模型的颗粒化理解和交流能力,并在多个基准测试中取得显著进展,为改善特定领域中的指导覆盖提供了有希望的机会,推进可适应性语言模型的发展。
- EMNLP指导调优大型语言模型的实证研究
通过深入实证研究指导调优中文语言模型,本文提供了宝贵的研究结果,有助于定制能更好地应对中文指令的大型语言模型。
- 标签监督的 LLaMA 微调
本文介绍了一种基于标签监督的适应大语言模型(LLMs)的方法,通过从 LLMs 提取潜在表示并将其投影到标签空间计算交叉熵损失来微调模型。在各种下游任务中,该方法显著优于比其十倍规模的 LLMs 以及其他强大的基线模型如 BERT-Larg - 在训练的哪个阶段,代码数据对 LLMs 的推理有帮助?
使用代码数据在预训练和指令调整阶段可以显著增强大型语言模型的推理能力,同时动态混合代码和文本数据有助于逐步学习推理能力。