IJCAIOct, 2023

微调与提示微调的监督表示:哪种更好地解释了大脑语言表示?

TL;DR通过比较 prompt-tuning 和 fine-tuning 的表示,在神经解码方面,我们发现对于 10 个自然语言理解任务,prompt-tuning 优于 fine-tuning,表明更符合大脑的调节方法获得的表征与脑部数据更相关。此外,我们发现与其他任务相比,处理细粒度概念意义的任务在解码大脑激活模式方面表现更好,尤其是句法分块任务,这表明在表示语言时,我们的大脑编码了更多细粒度的概念信息而不仅仅是浅层句法信息。