Jun, 2023

用 Flip-Flop 语言建模揭示注意力漏洞

TL;DR本文研究了语言模型存在的错误和推理失误现象,特别是对于长链推理问题的脆弱性,提出了认知故障这一现象,并通过引入翻转语言建模进行了分析,讨论了自注意力机制失效的原因和解决方法。