May, 2024
HMT:用于长文本语言处理的分层记忆变形器
HMT: Hierarchical Memory Transformer for Long Context Language Processing
Zifan He, Zongyue Qin, Neha Prakriya, Yizhou Sun, Jason Cong
TL;DR通过模仿人脑记忆层次结构,我们提出了分层记忆 Transformer(HMT)框架,以提高模型的长上下文处理能力,并通过在限定上下文和长上下文模型上的评估验证了其有效性。