BriefGPT.xyz
大模型
Ask
alpha
关键词
finetuning methods
搜索结果 - 3
ICLR
当扩展与 LLM 微调相遇:数据、模型和微调方法的影响
大语言模型的微调方法的缩放因子对模型性能的影响的系统实验结果表明,LLM finetuning 遵循微调数据量与其他缩放因子之间的幂函数乘法联合缩放规律,LLM 模型尺寸的扩大比预训练数据尺寸的扩大对 finetuning 更有益处,而仅考
→
PDF
4 months ago
PRoLoRA: Partial Rotation 强化更高效的参数化 LoRA
通过引入部分旋转增强的低秩适应机制 (PR0LoRA),本文在大型语言模型 (Large Language Models) 领域提出了一种参数效率更高、适用范围更广的新方法,实验证明 PRoLoRA 在特定参数预算和性能目标场景下具有明显更
→
PDF
4 months ago
对于材料探索,理性看待 LLMs:它们是否适用于分子的贝叶斯优化?
大型语言模型在分子空间中进行 Bayesian 优化的实验表明,只有通过预训练或领域特定数据的微调,才能使 LLMs 对于分子的 Bayesian 优化具有实用性。
PDF
4 months ago
Prev
Next