Feb, 2024

RNNs 并非变形金刚(尚未如此):上下文检索的关键瓶颈

TL;DR本研究探讨了递归神经网络(RNNs)和变压器(Transformers)在解决算法问题时的表示能力差距,发现通过 Chain-of-Thought 提示,RNNs 能够提高性能,但无法与 Transformers 靠近,而 RNNs 通过增强上下文检索能力的技术,如 RAG 和添加单个 Transformer 层,可以解决所有多项式时间可解问题,从而消除与 Transformers 之间的表示差距。