关键词linear attention
搜索结果 - 17
  • ICML短 - 长卷积有助于高效硬件线性注意力集中于长序列
    PDF24 days ago
  • ICML当线性注意力遇上自回归解码:朝着更有效和高效的线性化大型语言模型
    PDF25 days ago
  • 使用 Delta 规则并行化线性变换器来处理序列长度
    PDFa month ago
  • 高效多维度顺序建模:LightNet 的一次高效扫描
    PDFa month ago
  • 从统一视角解开线性复杂度序列模型的秘密
    PDFa month ago
  • ICML不同长度,匀速进行:高效语言建模与闪电注意力
    PDFa month ago
  • 理解基础模型的区别:注意力、状态空间模型和循环神经网络
    PDFa month ago
  • 线性注意力序列并行
    PDF3 months ago
  • DiJiang: 通过紧凑核化实现高效的大型语言模型
    PDF3 months ago
  • 简单线性注意力语言模型平衡召回 - 吞吐量的权衡
    PDF4 months ago
  • 线性变换器块中上下文学习的好处:MLP 组件和一步梯度下降初始化
    PDF4 months ago
  • 闪电关注 - 2:在大型语言模型中处理无限序列长度的免费午餐
    PDF6 months ago
  • Agent Attention: 关于 Softmax 和线性注意力的整合
    PDF7 months ago
  • 硬件高效训练的门控线性注意力变换器
    PDF7 months ago
  • Softmax 的优势:揭示其在线性注意力上的性能优势
    PDF9 months ago
  • 扁平 Transformer:使用专注线性注意力的视觉 Transformer
    PDFa year ago
  • 快速准确的关键点匹配的高效线性注意力
    PDF2 years ago
Prev
Next