- 基于项目级编码的子程序神经源代码摘要
该论文提出了一种基于神经网络的源代码摘要方法,采用项目级别的编码器来增强当前主流的代码摘要技术,以提高摘要的准确性和效率。
- 稀疏监督引导下的注意力对话状态追踪
本论文提出了一种基于 encoder-decoder 模型的 Dialogue State Tracking 方法,在利用数据量较小的情况下学习对话状态,结果表明该方法与基于完全监督的基线相当,但成本更低。
- WSDM基于来源感知的个性化偏好注意力的下一个目的地推荐
通过使用空间和时间的编码方法,我们提出了基于用户轨迹的下一目的地推荐模型,该模型在七个不同的的真实数据集上验证,其性能显著优于基础模型和现有模型。
- ACL使用基于 BERT 的预训练模型进行中文语法纠错
本研究基于 Cui 等人(2020)开发的 BERT 模型,分别采用两种方法将其纳入编码器 - 解码器模型进行汉语语法错误纠正任务,发现句子级错误尚未得到解决。
- ICCV通过遮挡完成的无监督点云预训练
通过遮挡数据重建来对点云进行预训练处理,证明该方法能显著提升不同数据集和编码器的下游任务精度,特别是在对象分类和分割方面比以往预训练方法表现更优。
- ACL基于事实的文本编辑
我们提出了一种名为事实为本文本编辑的新任务,通过使用神经网络架构 FactEditor,其通过参考给定的知识库中的事实来编辑草稿文本,在实验中证明在忠实度和流畅性方面均优于编码解码模型,并且较编码器解码器方法具有更快的推理速度。
- 基于图的 Transformer 模型:注意力机制是否足够?
提出了一种基于 Transformer 的 GRAP-Aware Transformer(GRAT)神经网络模型,利用自注意机制自适应地处理整个图的编码和解码,经过多种实验验证,其在 QM9 数据集的分子属性预测等任务上表现出了领先水平。
- ACL编码器 - 解码器模型在语法错误纠正中可以受益于预训练的掩码语言模型
本文研究如何将预训练的蒙面语言模型(例如 BERT)有效地纳入编码 - 解码模型,以进行语法错误纠正,并提出一种新的方法,在给定语法错误纠正语料库中对蒙面语言模型进行微调,并利用微调后的蒙面语言模型的输出作为语法错误纠正模型的额外特征,实现 - 探索将自然语言解析成一阶逻辑的神经模型
本篇研究使用神经网络模型来实现自然语言文本到一阶逻辑表达式的语义解析,在此基础上提出了一种改进的编码 - 解码模型,能够更加准确地生成一阶逻辑公式,并通过大规模数据集的评估证明了这种方法的有效性和可扩展性。最终将研究代码和数据集公开,为进一 - 通过摘要原型引导的长度可控抽象摘要
本文提出了一种新的长度可控的抽象汇总模型,与以往仅根据编码器 - 解码器模型生成一篇总结不同,我们的模型在编码器 - 解码器模型中结合了单词级别的抽取模块,通过提取重要的词来控制长度,生成了一个同时具有信息和长度控制的汇总。
- 坚持事实:自信解码实现忠实数据到文本生成
本文针对数据到文本生成中存在的幻觉问题,提出通过引入自信度分数及变分贝叶斯训练框架来防止生成不受原数据支持的文本,实验结果表明该方法比现有最先进的方法更加忠实于原始数据,并在 WebNLG 数据集上取得强大的表现。
- EMNLP局部序列转导的并行迭代编辑模型
本文提出一种并行迭代编辑(PIE)模型来解决本地序列转导问题,该模型在很多任务中都表现出竞争力,并且相比于流行的编码器解码器模型,PIE 模型在保持准确性的同时速度更快,其原因主要有:预测编辑而不是令牌,标记序列而不是生成序列,迭代地优化预 - EMNLP多样序列生成的混合内容选择
该论文提出了一种使用 SELECTOR 模块来明确区分多样性和生成过程的方法,在 NLP 任务中证明了较高的准确性、多元性和训练效率。
- EMNLP基于基础模板的口语语言理解数据增强
本文提出了一种基于原子模板的数据增强方法和编码器 - 解码器模型解决语音理解中数据稀缺问题和域适应问题。实验结果表明我们的方法在 DSTC 2&3 数据集上取得了显著的改进。
- ICML图 U-Net
本文提出了面向图形数据的表示学习的新方法,包括 gPooling 和 gUnpooling,并基于这些方法开发了一种编码器 - 解码器模型 —— 图形 U-Nets,实验结果表明该模型在节点分类和图形分类任务中的性能明显优于先前的模型。
- CVPR通过时间聚合和循环实现深度盲视频去马赛克
本文提出了一个基于编码器 - 解码器模型的快速视频字幕去除框架,使用多个源帧和残差连接来处理视频中的遮挡和缺失,进一步通过循环反馈实现对时间上的连续性和缺失像素位置的准确预测,实现了实时的视频去字幕操作。
- CVPR深度视频修复
本文提出了一种基于深度学习的快速视频修复网络,结合图像编解码模型,利用邻帧信息综合填充未知视频区域,并运用循环反馈和时间存储模块确保输出的时空连续性,与之前的视频修复方法相比,其结果更为语义正确和时空平滑,且可用于视频重定向任务并生成优质视 - 评估序列到序列模型在手写文本识别中的应用
该研究提出了一种基于注意力机制的序列到序列模型用于手写体识别,其中结合了卷积神经网络进行视觉信息的提取,实验结果表明其相比于最近的序列到序列方法取得了显著提升。
- 通过神经机器翻译在野外学习修复错误补丁的实证研究
通过挖掘 GitHub 上项目代码的变更历史记录,使用神经机器翻译技术进行修复漏洞的学习,设计并训练了一个 Encoder-Decoder 模型,可以在瞬间模仿各种不同的 AST 操作,并生成候选修复程序,可在实际环境中修复数以千计的独特故 - 用于改写和文本摘要的语义句子嵌入
介绍了一种适用于高级自然语言处理的句子向量编码框架,该框架可以从编码器 - 解码器模型中提取具有相似向量表示的常见语义信息的句子 latents 表示。我们将句子表示的应用用于两个不同的任务 -- 句子复述和段落摘要,使其适用于常用的循环框