BriefGPT.xyz
Ask
alpha
关键词
efficient attentions
搜索结果 - 2
通过正交内存实现线性关注
通过使用正交内存(LAVO),我们提出了线性注意力方法的一种改进,通过正交分解将上下文压缩为固定大小的正交内存,同时最小化上下文中的冗余,并通过嵌入相对位置编码来改善外推能力。实验证明,LAVO 极大地提高了因果语言模型的效率,并在最佳外推
→
PDF
7 months ago
AWESOME: 利用内存机制和全局显著内容进行 GPU 内存受限的长文档摘要
本文提出了一种基于分治策略和外部内存机制的长文档自动摘要框架 AWESOME,该框架通过预处理全局重要内容,在保留全局上下文的同时,增强了对全文的理解,实现了更好的摘要信息性、可信度和连贯性。
PDF
a year ago
Prev
Next