- HarDNet-MSEG: 一个简单的编码器 - 解码器多形状分割神经网络,达到超过 0.9 的平均 Dice 指数和 86 FPS
本研究提出了一种名为 HarDNet-MSEG 的新型卷积神经网络,用于息肉分割,其在五个流行数据集上均实现了 SOTA,对于 Kvasir-SEG,HarDNet-MSEG 在 GeForce RTX 2080 Ti GPU 上以 86. - AAAI高效压缩子层的 Transformer 解码器
通过压缩 Transformer 模型的 decoder 层中 sub-layers 构建模块,提出了 Compressed Attention Network,实现了更高的并行性,性能与强基线相当,速度加快 1.42 倍。
- COLING非自回归翻译的上下文感知交叉注意力
本研究针对非自回归翻译中 decoder 缺乏目标依赖建模的问题,提出一种基于跨注意力增强源上下文信息的方法,实验表明该方法能够改善翻译质量并更好地利用源语句的局部和全局信息。
- MM可控的连续凝视重定向
本文提出了 interpGaze,一种用于控制眼球注视方向的新框架。通过设计由编码器,控制器和解码器构成的模型,interpGaze 实现了精确控制眼球注视方向和持续插值。实验验证表明,interpGaze 在图像质量和重定向精度方面优于现 - EMNLPAMR-to-Text 生成的在线反向解析
本文提出一种新的 AMR-to-text 生成方法,通过在文本生成期间反向预测目标句子上的 AMR 图进行解码,相比于基于标准语言模型的解码器能更好地保留输入含义,并在两个 AMR 基准测试上显示了优越性。
- 一对多生成的目标条件化
本文以神经机器翻译模型中存在的少量翻译为挑战,提出通过将 NMT 模型的解码器与一种代表目标句子领域的潜在变量相结合以从源句子中推测出更多翻译,同时训练一个目标编码器以生成离散变量表示目标句子的领域,为解码器提供关键输入,由此解码器能够根据 - ACL利用词嵌入作为中间步骤,在多任务端到端语音翻译中获得更好的 BLEU,但更差的 WER
通过利用词嵌入作为中间媒介,多任务学习可以提高语音翻译(ST)模型的表现,其中识别解码器可生成源语言的文本,并且翻译解码器则可以基于识别解码器的输出获得最终的翻译。
- ACL神经机器翻译的硬编码高斯注意力
本论文探讨了 Transformer 的多头注意力对于实现高质量翻译的重要性,并基于此开发了一种无需任何学习参数的 ' 硬编码 ' 注意力变量。替换编码器和解码器中所有学习自注意力头部与固定、与输入无关的高斯分布最小程度影响四个不同语言对的 - CVPR带交叉一致性训练的半监督语义分割
本文提出了一种新型的基于交叉一致性的半监督语义分割方法,其中共享编码器和主解码器进行有监督训练,利用无标签数据来提高编码器的表示,该方法简单易懂,并且在多个数据集上实现了最先进的结果。
- 图卷积机器:面向上下文感知的推荐系统
本研究提出了一种基于图卷积的上下文感知推荐系统框架,包括编码器、图卷积层和解码器,通过对用户 - 物品图进行上下文感知图卷积优化,有效提升了推荐准确率。
- 单解码器双向场景文本识别
介绍了一种使用单个解码器进行双向文本解码的新型双向美术场景文本识别方法 Bi-STET,该方法比使用两个独立解码器进行双向解码的方法更高效,并在所有 STR 基准测试中实现或超越最先进的方法。
- 高分辨率图像合成的加速框架
本文提出了一种两阶段的框架,用于加速合成高分辩率图像的训练过程,其通过已训练好的编码器和解码器网络将高分辨率图像变换为小编码,并通过训练一种编码生成网络学习潜在编码的分布,生成器只学习生成小的潜在编码,最后通过解码器网络将生成的潜在编码转化 - EMNLP模仿学习与强化学习在改写生成中的实证比较
本研究通过 pointer-generator 文本生成模型的实验对比,表明在生成同义句时,模仿(IL)学习比强化(RL)学习更有效且优于目前的同类方法。
- ICCV通过场景图对齐进行非配对图片描述
本研究提出了一种基于场景图的方法来进行非配对图像描述,用于生成不需要图像 - 文字配对的结果,显著超过现有方法的表现。
- DeepTurbo:深度 Turbo 译码器
通过深度学习方法进行 Turbo 解码器设计的研究,提出了一种新的端到端训练的深度学习解码器 DeepTurbo,相较于传统的 Turbo 解码器和神经 BCJR 解码器,DeepTurbo 在 AWGN 和 non-AWGN 下都有更好的 - 无需关注
介绍了一种不需要注意力机制、没有分开的编码器和解码器的循环神经翻译模型,它是低延迟的,能在读取第一个源标记时立即写入目标标记,并在解码期间保持常量内存使用率。它的性能与 Bahdanau 等人(2014)的标准注意力模型相当,对于长句子表现 - 神经机器翻译中冻结子网络以分析领域自适应
分析神经机器翻译系统的主要组件及其对领域适应性的贡献和容量,发现继续训练对性能的影响不大,并且当单个组件适应时性能惊人的好。发现继续训练不会将模型移动得非常远离域外模型,这表明域外模型可以为新域提供良好的通用初始化。
- EMNLP层级注意力网络在文档级神经机器翻译中的应用
本文提出了一种层次化的注意力模型,通过在神经机器翻译中引入文本级的上下文信息,有效提升了翻译的质量。实验结果表明,编码器和解码器都对上下文信息做出了积极贡献。
- 神经架构优化
本论文提出了一种基于连续优化的自动神经架构设计方法,使用编码器、预测器和解码器组成的方法在连续空间中进行梯度优化,通过将较好的嵌入解码成新的架构,最终实现在 CIFAR-10 和 PTB 数据集上高效发现神经网络,并与之前的方法相比实现了较 - IJCAI键 - 值记忆增强的神经机器翻译
提出了一种基于键值记忆的注意力机制模型用于神经机器翻译,通过维护及时更新的键内存来跟踪注意力历史和固定值内存来存储源语句的表示,在两个记忆之间进行非平凡的转换和迭代交互,以便每个解码步骤时,可以关注更合适的源单词来预测下一个目标单词从而提高