BriefGPT.xyz
Ask
alpha
关键词
self-attentive
搜索结果 - 3
基于编码器 - 解码器吸引子的未知数量说话者端到端分离
该论文提出了一种基于编码器 - 解码器的吸引因子计算方法,该方法可灵活地生成不同数量的吸引因子,用以支持不同数量的说话人,并利用传统的自我注意力端到端神经说话人分离网络(SA-EEND)来提取讲话嵌入序列和生成说话人活动,实验结果表明,相对
→
PDF
4 years ago
自我关注 Hawkes 过程
提出了一种利用 self-attention 机制进行 intensity function 拟合的 self-attentive Hawkes process 方法,相较于传统的统计方法和深度循环神经网络,该方法能更好地识别时间事件之间的
→
PDF
5 years ago
ICLR
通用变压器
Universal Transformer 是一种并行自我关注循环序列模型,它将前馈序列模型(例如 Transformer)的并行性和全局感受野与递归的归纳偏差相结合,解决了在某些简单任务中标准 Transformer 失败的问题,并取得诸
→
PDF
6 years ago
Prev
Next