- ACL基于图卷积的对比学习在医学影像学检查结果归纳中的应用
提出一种基于 Encoder-Decoder 框架且同时利用附加知识和原始结果的方法,利用图神经网络处理视频关系信息,采用对比学习方法强化关键词在结果中的表述,以提高放射学报告印象部分的准确性。
- 无监督学习群不变和等变表示
本文针对深度学习的无监督学习,将群不变和群等变表示学习扩展到了该领域。我们提出了一种基于编码器 - 解码器框架的通用学习策略,其中潜在表示被分为不变项和等变群作用项。在利用预测适当的群作用来对齐输入和输出姿势以解决重建任务时,网络可以学习将 - ICML使用连续循环单元对不规则时间序列进行建模
本研究提出了一种称为连续循环单元 (CRUs) 的神经网络架构,它可以自然地处理不规则的时间间隔观察数据。研究发现,这种架构具有时间上的连续性和优化集成嘈杂观察的门控机制。我们在挑战性数据集上对 CRU 进行了实证研究,并发现它比基于神经微 - ICML多维数据的任务感知隐私保护
本文提出一种基于编码器 - 解码器框架的任务感知隐私保护方法,旨在使用任务相关的潜在用户数据表示来匿名化丰富的用户数据,实现最优解,较传统的隐私预算下注入噪声的方法显著提高任务准确性。
- EMNLP异构图神经网络用于关键词生成
提出一种新的基于图的关键词生成方法,结合层次化注意力和拷贝机制,借鉴相关文献的显式知识,取得显著的成果。
- MMPIMNet:一种用于场景文本识别的并行、迭代和模拟网络
该研究提出了一种平行、迭代和模仿网络 (PIMNet),它采用了一种平行注意机制来更快地预测文本,以及一种迭代生成机制来使预测更加准确。与自回归模型相比,该方法在推理时间上更快,同时保持了很高的准确性。
- DeltaLM: 使用预训练多语言编码器扩充编码器 - 解码器预训练,以用于语言生成和翻译
介绍了一种名为 DeltaLM 的预训练多语言编码器 - 解码器模型,桥接了预训练编码器和自然语言生成之间的鸿沟,采用自监督方式的跨语言数据预训练任务。实验显示,DeltaLM 在机器翻译、文本摘要、数据生成和问题生成等自然语言生成和翻译的 - OadTR: 使用 Transformer 进行在线动作检测
本文提出了一个新的 Transformers 编码器 - 解码器框架 OadTR 用于在线行动检测,该模型能够同时编码历史信息并预测未来内容,性能优于目前基于 RNN 的方法。
- SIGIRTIE:一种基于嵌入的增量式时间知识图谱补全框架
文章介绍了一个新框架 Time-aware Incremental Embedding (TIE),可用于支持频繁更新的时间知识图谱(TKG)的完整性补充任务(TKGC),提高了系统的效率,降低了训练时间。
- EMNLP对话状态跟踪的语义表述
采用层次表示的语义分析任务,以实现对话状态跟踪,并通过 TreeDST 数据集的编码器 - 解码器框架实现了比现有技术水平的 DST 方法更好的结果。
- EMNLP语义对齐的通用树形数学问题求解器
本篇论文提出了一种基于 Universal Expression Tree 以及 encoder-decoder structure 的 semantically-aligned universal tree-structured solv - 不规则采样时间序列的学习:缺失数据视角
本文介绍一种基于变分自编码器和生成对抗网络的编码器 - 解码器框架,用于学习不规则采样的时间序列数据,提出了一种连续卷积层用于与现有神经网络体系结构高效对接。实验证明,该模型在不规则多元时间序列分类的结果上可以比最近的 RNN 模型表现得更 - IJCAI学习离散组合推理模块网络,用于视频字幕
本文提出了一种名为推理模块网络 (RMN) 的视觉推理方法,旨在为现有的编码器 - 解码器框架提供视频字幕生成的推理能力,RMN 包括三个复杂的时空推理模块和一个由 Gumbel 估算法训练的动态和离散模块选择器,并且在 MSVD 和 MS - CVPRSEED: 场景文本识别的加强语义编码器 - 解码器框架
本研究提出了一种基于编码器 - 解码器框架的语义增强模型来识别低质量的场景文本,它使用显式的全局语义信息,并将现有的 ASTER 方法作为示例,实验证明了该模型对低质量文本图像更加鲁棒,并在多个基准数据集上取得了最先进的结果。
- ACLTAG: 代码注释生成的类型辅助指导
提出了一种考虑代码类型信息的编码器 - 解码器框架,解决现有结构到序列框架在生成代码注释时忽略类型信息的问题,使用了基于层次强化学习的方法解决训练困难,并在自动评估指标和案例研究上达到了最先进的性能水平。
- 基于 3D 骨骼的人体运动预测的动态多尺度图神经网络
该研究提出了一种新颖的动态多尺度图神经网络(DMGNN),以预测基于 3D 骨架的人体动作,整个模型采用编码器 - 解码器框架,并使用多尺度图计算单元(MGCU)提取不同尺度的特征并融合。实验证明,在 Human 3.6M 和 CMU MO - AAAI全局表示增强的 Transformer 模型
本文提出了一种在 Transformer 网络中显式地建模全局表示的新方法 —— 全局表示增强的 Transformer(GRET),并将其应用于机器翻译和文本摘要两个文本生成任务中,并通过实验证明其在自然语言生成方面的有效性。
- 视频字幕解码器的深度挖掘
本篇研究针对视频字幕模型的解码问题,通过三种技术改进模型的性能,包括使用变分 Dropout 和层归一化改善过拟合问题、提出在线评估模型性能以选择最佳测试检查点的方法、提出专业学习的新训练策略。在 Microsoft Research Vi - 基于 Transformer 的端到端语音识别语义掩码
提出了一种基于语义掩蔽的正则化方法,使用注意力机制的编解码器模型,以及 transformer-based 模型,以提升 E2E 模型的训练效果。通过实验验证,在 Librispeech 960h 和 TedLium2 数据集上取得了 E2 - 关键词生成:多方面综述
该论文综述了关键短语生成的一些方法,重点讨论基于神经网络的较新的抽象方法,同时介绍了过去二十年中关键短语生成和文本摘要的研究趋势。