Nov, 2018

混合自注意力网络用于机器翻译

TL;DR本研究中,我们提出了一种名为 HySAN 的新型自注意力机制,它可以通过针对不同类型的自注意力网络设计特定的掩码来提取各种语义,并引入挤压门来融合不同类型的自注意力网络,在三个机器翻译任务上实现了优于 Transform 的显著基线,并实现了超越最先进的 NMT 系统的卓越结果。