BriefGPT.xyz
大模型
Ask
alpha
关键词
generative interpretable fine-tuning transformers
搜索结果 - 1
GIFT: 生成解释性微调变压器
GIFT 是一种生成可解释化微调 Transformers 预训练模型的方法,在参数高效的情况下提供内置可解释性,通过选择 Transformer 模型的多头自注意力中的最终投影(线性)层进行 fine-tuning,提出了使用参数到聚类注
→
PDF
7 months ago
Prev
Next