Mar, 2022

纠错码变形器

TL;DR本文提出了一种将 Transformer 架构扩展到任意块长线性码软译码的方法,通过自适应遮掩的自注意力模块实现代数码和比特之间的交互作用,该方法在符号时间复杂度的分数级运行时间内表现出了 Transformers 的极高能力和灵活性,在性能上优于现有的深度学习码译码器。