AAAIMar, 2023

学习二阶注意力上下文,以实现高效的对应剪枝

TL;DR本文提出了一种基于二阶关注上下文的出色的、高效的对应关系修剪方法,可以在维持效率的同时确保有效性。通过实验证明,与现有工作相比,我们的方法具有更好的去除异常值的效果,并可以获得 14 倍的加速比。