关键词linear attention
搜索结果 - 17
- ICML短 - 长卷积有助于高效硬件线性注意力集中于长序列PDF24 days ago
- ICML当线性注意力遇上自回归解码:朝着更有效和高效的线性化大型语言模型PDF25 days ago
- 使用 Delta 规则并行化线性变换器来处理序列长度PDFa month ago
- 高效多维度顺序建模:LightNet 的一次高效扫描PDFa month ago
- 从统一视角解开线性复杂度序列模型的秘密PDFa month ago
- ICML不同长度,匀速进行:高效语言建模与闪电注意力PDFa month ago
- 理解基础模型的区别:注意力、状态空间模型和循环神经网络PDFa month ago
- 线性注意力序列并行PDF3 months ago
- DiJiang: 通过紧凑核化实现高效的大型语言模型PDF3 months ago
- 简单线性注意力语言模型平衡召回 - 吞吐量的权衡PDF4 months ago
- 线性变换器块中上下文学习的好处:MLP 组件和一步梯度下降初始化PDF4 months ago
- 闪电关注 - 2:在大型语言模型中处理无限序列长度的免费午餐PDF6 months ago
- Agent Attention: 关于 Softmax 和线性注意力的整合PDF7 months ago
- 硬件高效训练的门控线性注意力变换器PDF7 months ago
- Softmax 的优势:揭示其在线性注意力上的性能优势PDF9 months ago
- 扁平 Transformer:使用专注线性注意力的视觉 TransformerPDFa year ago
- 快速准确的关键点匹配的高效线性注意力PDF2 years ago
Prev
Next