Oct, 2024

重新思考规模:微调开源大语言模型在大规模可重复社会科学研究中的有效性

TL;DR本研究解决了使用大型闭源模型在社会科学研究中面临的透明度不足、数据隐私风险和高成本等问题。通过证明小型微调的开源大语言模型在性能上可以与ChatGPT-4等大型模型相媲美,本研究不仅揭示了训练集规模与微调效果之间的关系,还提出了结合开源与闭源模型优势的混合工作流程,提高了研究的透明性和可重复性。