BriefGPT.xyz
Ask
alpha
关键词
dropattention
搜索结果 - 1
DropAttention: 一种全连接自注意力网络的正则化方法
探索在 Transformers 中规范化注意权重以防止过度拟合,并表明 DropAttention 能够提高性能并减少过度拟合。
PDF
5 years ago
Prev
Next