BriefGPT.xyz
大模型
Ask
alpha
关键词
encoder-decoder attention
搜索结果 - 4
注意力作为同时语音翻译的指南
本文提出了一种基于注意力机制和编码器 - 解码器注意力进行实时推理的注意力策略,并在 en -> {de, es} 上进行了测试,结果表明与现有技术相比,该策略在计算感知延迟方面的性能要好得多。
PDF
2 years ago
Transformer NMT 中的注意力权重不能完全对齐序列中的单词,但在很大程度上解释了模型的预测
本文提出了关于 Transformer 网络在神经机器翻译(NMT)领域的广泛分析,重点关注编码器 - 解码器注意机制,证明了注意权重系统地通过依赖于源序列中的未知标记而产生对齐错误。我们提出了证据表明错误对齐对模型行为的影响,并证明了编码
→
PDF
3 years ago
手写变形器
我们提出了一种新型的基于 Transformer 的手写文本样式图像生成方法,旨在学习样式 - 内容的缠结以及全局和局部写作风格模式。通过自注意机制,所提出的 HWT 捕捉了样式示例中的长距离和短距离关系,从而编码了全局和局部样式模式。此外
→
PDF
3 years ago
MultiSpeech: 基于 Transformer 的多说话人文本转语音
本文提出了一种名为 MultiSpeech 的高质量多说话人变压器语音合成系统,通过几个特殊设计的组件 / 技术改善了文本到语音的对齐,并在多个数据集上展示了其效果。
PDF
4 years ago
Prev
Next