Jun, 2023
大型语言模型用于代码生成时模型的注意力是否与人类注意力一致?—— 一个实证研究
Is Model Attention Aligned with Human Attention? An Empirical Study on Large Language Models for Code Generation
Bonan Kou, Shengmai Chen, Zhijie Wang, Lei Ma, Tianyi Zhang
TL;DR研究发现在 LLMs 生成代码时,它们所关注的自然语言描述与人类程序员的关注点不一致,而一个基于扰动的计算方法的注意力最大程度地与人类注意力一致,说明我们需要更符合人类关注点的 LLMs 以提高代码生成的可解释性和程序员的信任度。