BriefGPT.xyz
Ask
alpha
关键词
generalized attention mechanism
搜索结果 - 2
扩展的对称保持注意力网络用于 LHC 分析
通过扩展 SPANet 架构以考虑多个输入流和全局事件特征,并提供回归和分类输出以补充粒子分配,本研究探讨了 SPANet 扩展能力在半轻子衰变的顶夸克对以及与希格斯玻色子相关的顶夸克对的背景下的性能。在寻找 ttH、顶夸克质量测量和重 Z
→
PDF
10 months ago
Transformer 的广义注意机制和相对位置
本文提出了广义注意力机制 (GAM),揭示了 Vaswani 等人的自注意力机制的新解释,提供了不同变体注意力机制和 GAM 框架中的新相对位置表示,并可简单应用于不同数据集中元素的不同位置的情况。
PDF
2 years ago
Prev
Next