BriefGPT.xyz
大模型
Ask
alpha
关键词
attention alignment
搜索结果 - 4
层次化并行变压器与注意力对齐技术用于抽象多文档摘要
本研究提出了一种带有 Attention Alignment 机制的 Parallel Hierarchical Transformer(PHT)用于 Multi-Document Summarization(MDS)。 通过将单词级和段落
→
PDF
2 years ago
Seq2Seq 模型的深度语音合成系统
本研究介绍对 Seq2seq 架构的修改,以提高神经网络基础的文本到语音 / 语音合成流程的训练速度和模型的性能,同时保证合成语音的音质。
PDF
5 years ago
ECCV
深度对抗式注意力对齐:无监督域自适应的优势 —— 以目标期望最大化为例
本文提出了一种使用注意力对齐和后验标签分布估计的卷积神经网络自适应无监督域适应的方法,在 Office-31 数据集上超过其他最先进的方法 2.6%。
PDF
6 years ago
EMNLP
神经机器翻译的监督注意力
本文提出利用训练句子对齐来提高神经机器翻译的关注或对齐准确性,通过将机器关注与 “真实” 对齐之间的距离计算,并在训练过程中最小化此代价,我们的实验证明,相对于大型词汇神经机器翻译系统,我们的模型显著提高了翻译和对齐质量,超越了最先进的传统
→
PDF
8 years ago
Prev
Next