Dec, 2023

GIFT: 生成解释性微调变压器

TL;DRGIFT 是一种生成可解释化微调 Transformers 预训练模型的方法,在参数高效的情况下提供内置可解释性,通过选择 Transformer 模型的多头自注意力中的最终投影(线性)层进行 fine-tuning,提出了使用参数到聚类注意力来生成 fine-tuning 参数的超级 Transformer 方法,并在 VTAB 和 FGVC 基准测试中达到了显著更好的性能。