BriefGPT.xyz
Ask
alpha
关键词
adversarial self-attention
搜索结果 - 1
AAAI
对抗式自注意力用于语言理解
本研究通过提出对 Transformer 模型的自注意力机制进行改进,提出了 Adversarial Self-Attention(ASA)机制,旨在抑制模型对部分特征的依赖以及探索更广泛的语义,实现更好的泛化性能和鲁棒性。实验结果表明,在
→
PDF
2 years ago
Prev
Next