BriefGPT.xyz
Ask
alpha
关键词
self-attention transformer
搜索结果 - 2
使用 Transformer 将自然语言转化为代码
本文使用 CoNaLa 数据集,利用自注意力变换器结构解决了从自然语言描述中生成代码片段的问题,并表明其表现优于循环注意力编码器解码器,使用修改后的反向翻译和周期一致损失以端到端的方式训练模型,实现了 16.99 的 BLEU 分数,超过了
→
PDF
2 years ago
CVPR
使用自我注意力和 Gumbel 子集采样建模点云
本研究提出了一种基于自注意力变换器和 Gumbel 子集采样的特征提取方法,可用于处理大小变化的输入,并能够用于处理事件相机流作为点云的新领域。
PDF
5 years ago
Prev
Next