Feb, 2024

度量和控制语言模型对话中的角色漂移

TL;DR通过自我会话测试,我们评估了个性化聊天机器人之间的身份稳定性,并揭示了频繁的身份转化现象。通过经验和理论分析,我们发现 Transformer 注意机制的衰退是造成这一现象的原因。为了解决注意力衰退和身份转化问题,我们提出了一种轻量级方法称为 split-softmax,并与两个强基线模型进行了比较。