Dec, 2019

Explicit Sparse Transformer: 明确稀疏转换器 —— 通过明确选择实现集中注意力

TL;DR提出了一种名为显式稀疏 Transformer 的新模型,其通过选择最相关的片段来改进全局上下文的注意力集中度,展示了在自然语言处理和计算机视觉任务方面的优越表现,并实现了与稀疏注意力方法可比或更好的结果,但显著减少了训练和测试时间。