BriefGPT.xyz
Ask
alpha
关键词
second-order attention
搜索结果 - 1
AAAI
学习二阶注意力上下文,以实现高效的对应剪枝
本文提出了一种基于二阶关注上下文的出色的、高效的对应关系修剪方法,可以在维持效率的同时确保有效性。通过实验证明,与现有工作相比,我们的方法具有更好的去除异常值的效果,并可以获得 14 倍的加速比。
PDF
a year ago
Prev
Next