PACuna: 粒子加速器的自动微调语言模型
本文研究如何使用 Prompt-based Fine-tuning 技术提高语言模型和多模式因果变换器模型的效果,结果表明使用只有 35%-40% 的训练数据集便能取得可比较的效果,从而达到显著的时间和费用节约。
Apr, 2022
使用自然语言任务描述,通过自动合成基于自动机的控制器,并通过与独立提供的规范进行验证,将预训练语言模型完全自动调优以适应自主系统的应用,从而在减少成本的同时弥补了通用知识和特定领域要求之间的差距,其在自主驾驶等多个任务中显示出有效性,使控制器所满足规范的百分比从 60% 提高到 90%。
Oct, 2023
通过对大型语言模型进行微调以稳定材料生成,实验证明微调后的模型相对于竞争性扩散模型能以约两倍的速度(49% 对比 28%)产生预测为亚稳态的材料,同时具备生成稳定材料、填补部分结构和根据文本条件生成的能力。此外,研究表明,语言模型捕捉晶体结构的关键对称性能力随模型规模的增大而改善,表明预训练语言模型的偏见适用于原子尺度的数据。
Feb, 2024
本研究提出了一种 Nano 算法,使用少量人类反馈,能够生成符合任意(可量化和不可量化)分布的文本,并且表现出较高的样本效率和个性化能力。
Nov, 2022
本研究探索使用精细调整的大型语言模型(LLMs)自动化系统性文献综述(SLRs),提出了将人工智能与学术研究方法相结合的重要和创新贡献。通过采用最新的精细调整方法和开源的 LLMs,我们展示了一种实用高效的自动化 SLR 过程的方法,包括知识综合的最终执行阶段。研究结果在 LLM 响应的事实准确性方面保持了很高的保真度,并通过对现有符合 PRISMA 的 SLR 的复制进行了验证。研究提出了减轻 LLM 虚幻感的解决方案,并提出了追踪 LLM 响应与信息来源的机制,从而证明了这种方法如何满足学术研究的严格需求。最终的发现证实了精细调整的 LLMs 在简化各种劳动密集型的文献综述过程方面的潜力。鉴于这种方法的潜力及其在所有研究领域的适用性,这项基础研究还呼吁更新 PRISMA 报告指南以整合 AI 驱动的过程,确保未来 SLRs 的方法透明性和可靠性。该研究拓宽了 AI 增强工具在各学术和研究领域的应用,为在日益增长的学术研究数量面前以更高效的方式进行全面准确的文献综述设立了新的标准。
Apr, 2024
本文中,我们展示了数据处理、预训练任务、神经网络建模或微调的方法如何单独影响性能,以及当这些方法共同考虑预训练模型时,语言模型在特定的问答任务上表现出最佳结果;具体地,我们提出了一种扩展的预训练任务和一种新的邻居感知机制,能更多地关注邻近的标记,从而捕捉预训练语言建模的上下文丰富性。我们的最佳模型在 SQuAD 1.1 上实现了 95.7%的 F1 和 90.6%的 EM,也在 SQuAD 2.0 基准上超过了现有的预训练语言模型,如 RoBERTa,ALBERT,ELECTRA 和 XLNet。
Mar, 2022
LLaMA-Reviewer 是一个创新框架,利用了 LLaMA(一种流行的大型语言模型)在代码审查领域的能力。通过使用参数高效的微调方法,即使使用了 6.7B 参数的最小 LLaMA 基础模型和有限的微调时期,LLaMA-Reviewer 也能达到现有的面向代码审查的模型的性能。
Aug, 2023
在本研究中,我们通过对不同 QA 数据集上的顺序微调策略的性能进行全面分析,证明了传统的基于预训练语言模型和微调策略在低预算设置下是次优的。我们的实验结果表明,在低预算设置下,最佳策略是使用预训练语言模型,并将其与目标数据集和 SQuAD 数据集进行微调。在不额外标注的情况下,该策略的性能优于标准策略 2.28% 至 6.48%。这些实验结果对于 QA 从业者在低预算下如何最好地微调 QA 系统具有极大的实用价值。
Jan, 2024