Oct, 2019

基于定位关系的注意力机制,用于强健的长篇语音合成

TL;DR本研究提出一种简单的位置相对注意力机制,可解决关注式端到端文本转语音系统在越领域文本中出现的文本对齐失败问题,并比较了 GMM-based 和加性能量 based 等两种注意力机制,最后验证 GMM attention 和动态卷积 attention (DCA) 机制对于非领域文本具有很好的泛化能力并能保持语音自然性。