Apr, 2021

使用附加注意力机制的 Onsets and Frames 模型再审

TL;DR通过修正加性注意机制,本文全面检验了 Onsets-and-Frames AMT 模型并找出了对 AMT 性能有贡献的关键组件,实验结果表明加性注意机制在适度的时间上下文后并不对模型有益处,规则 - based 后处理高度贡献 SOTA 表现,并且无论模型的复杂程度如何,onsets 始终是最重要的注意机制特征。这些发现鼓励 AMT 的研究更注重强大的开始检测器和有效的后处理。