Aug, 2024
通过高效可信的蒸馏教导可靠的大型语言模型
FIRST: Teach A Reliable Large Language Model Through Efficient
Trustworthy Distillation
TL;DR本研究针对当前大型语言模型(LLM)在信任度上存在的不足,提出了一种新的方法——高效可信蒸馏(FIRST),旨在解决因微调引起的错误校准问题。通过利用老师模型的部分“集中知识”,该方法在成本效益上显著提高了模型的准确度和可信度,实验结果显示准确度提升2.3%,错误校准降低10%。