Jun, 2024

INDICT:安全性和实用性的内部对话生成代码

TL;DRLLMs被用于align with自然语言指令以满足使用者的意图和要求,但在实践中,LLMs在安全与效用之间的微妙平衡变得愈发具有挑战性。为此,本研究提出了INDICT框架,通过内部对话协同系统为LLMs提供安全和有益的指导,其中包括安全导向评论家和有益性导向评论家的对话分析。在8个不同任务、8种编程语言和5个基准测试上评估了INDICT,使用了参数为7B至70B的LLMs,并观察到我们的方法在安全和有益性分析方面提供了高水平的批评,显著提高了输出代码的质量(所有模型中绝对改进率为10%)。