BriefGPT.xyz
Ask
alpha
关键词
mask attention
搜索结果 - 2
ICCV
无掩模关注的 Transformer 用于 3D 实例分割
通过引入位置感知设计,利用辅助中心回归任务替代掩码注意力设计,实现了在 3D 实例分割中更快的收敛速度和更准确的位置查询,并在多种数据集上展现出优越的性能。
PDF
10 months ago
COLING
利用文本结构知识增强预训练模型用于问句生成
研究表明,采用预训练模型生成问题 (QG) 任务可以显著优于传统的序列对序列方法,但是这些模型对于输入的文章缺乏文本结构的认识。为了克服这个问题,我们将文本结构模拟为回答位置和句法依赖性,提出回答局部性建模和句法遮盖自注意力机制。实验表明,
→
PDF
2 years ago
Prev
Next