Nov, 2023
Fovea Transformer:高效的结构化精细到粗糙注意力长上下文建模
Fovea Transformer: Efficient Long-Context Modeling with Structured Fine-to-Coarse Attention
Ziwei He, Jian Yuan, Le Zhou, Jingwen Leng, Bo Jiang
TL;DRFovea Transformer 是一种以长 - context 为中心的 Transformer 模型,通过在输入序列中构建一个多尺度树来提高模型对全局依赖性的捕捉能力,并在长 - context 摘要任务上取得了最先进的性能。