Jul, 2023

大型语言模型中的用户可控知识融合:平衡创造性和幻觉

TL;DR本文提出了一种创新的用户可控机制,通过在LLM训练的微调阶段引入一个代表生成回答中对参考知识忠实程度的数值标签,综合利用ROUGE得分、Sentence-BERT嵌入和LLM的自我评估得分来度量词汇重叠度和语义相似度,用户可以操作这一数值标签来控制LLM对外部知识的依赖程度,通过广泛的实验验证了该方法的适用性和有效性,强调了增强LLM的多功能性同时保持创造性和准确性平衡的潜力。