Apr, 2024
从认知到计算:人类注意力与 Transformer 架构的比较综述
From Cognition to Computation: A Comparative Review of Human Attention and Transformer Architectures
Minglu Zhao, Dehong Xu, Tao Gao
TL;DR人类注意力机制和 Transformer 模型在容量约束、注意路径和意图机制等方面存在显著差异,本文从认知功能的角度进行比较分析,旨在揭示一些开放性研究问题并鼓励跨学科努力,以从人类注意力机制中获得洞察,进而发展更普适的人工智能。