BriefGPT.xyz
Ask
alpha
关键词
attention calculation
搜索结果 - 4
Transformer 中共享关键语义的高效图像修复
通过使用由专门构造的稀疏但全面的关键语义词典优化的自注意力机制,该文提出了一种增强图像恢复性能的新方法:SemanIR。通过在同一阶段内共享关键语义词典,该方法能够实现每个窗口内的线性计算复杂度,并通过实验证明了其在六个图像恢复任务中的卓越
→
PDF
a month ago
ICML
不同长度,匀速进行:高效语言建模与闪电注意力
我们提出了闪电注意力(Lightning Attention),这是第一个在固定的内存消耗下保持不同序列长度的训练速度恒定的线性注意力实现。
PDF
a month ago
TRAMS:无需训练的长程语言模型记忆选择
提出了一种称为 TRAining-free Memory Selection (TRAMS) 的插拔式策略,通过一个简单的评价指标选择参与注意力计算的令牌,从而改善长程语言建模的挑战,无需额外训练或添加参数,通过在 word-level b
→
PDF
8 months ago
ACL
针对中文端到端语义角色标注的高阶细化
本文呈献一种高级别的精细机制,通过注意力计算与所有谓词 - 论元对之间的交互来进行更新标记表示,以解决长程依赖问题,从而在中文 SRL 数据上实现了最先进的结果。
PDF
4 years ago
Prev
Next