BriefGPT.xyz
Ask
alpha
关键词
efficient transformers
搜索结果 - 4
ICML
LeaPformer:通过学习比例实现线性变压器的自回归和同时任务
通过使用基于位置的重加权函数,我们提出了 Learned Proportions (LeaP) 和 LeaPformers 模型,通过依赖于比例序列重加权的方法和动态比例生成模块,实现了更灵活的注意力集中模式,成功应用于线性化变压器模型,在
→
PDF
2 months ago
有效的 Transformer 是否真的节省计算量?
我们研究了基于 Transformer 的语言模型,特别关注了 Sparse Transformer 和 Linear Transformer 的推理能力,并发现它们对一类动态规划问题更加有效。
PDF
5 months ago
可训练前馈核线性自注意力近似
本文旨在将可训练的核方法的思想扩展到逼近 Transformer 架构的自注意机制,以实现更快的计算和更高的准确率。
PDF
2 years ago
MuLD: 多任务长文档基准
MuLD 是一个以文档长度为 10,000 个标记的新型长文档基准,旨在测试自然语言处理任务在长文档上的性能和解决方法。研究结果表明,使用增加上下文长度的 Transformer 模型能更好地解决该基准中的任务,这为进一步研究提供了启示。
PDF
2 years ago
Prev
Next