- 基于注意力机制神经网络负荷预测的统一框架
本文提出了一种基于深度学习的模块化设计的电力负荷预测框架,包括时间变化特征权重,分层时间注意力和特征加强误差校正。实验结果表明,该框架在两个公共数据集和性能度量上优于现有方法,其中特征权重机制和误差校正模块对于实现卓越性能至关重要。
- 记忆增强的心智理论网络
该研究采用新颖的神经记忆机制和分层注意力相结合的方法设计了一个理论心智模型,ToMMY,使其能够快速准确地推断他人的意图、信念与将来的行为,进一步实验证明神经记忆机制可在高难度的虚假信念任务中提高心理理解的准确性。
- 自适应节点采样的层次图形 Transformer
本文提出针对当前图表示学习中的问题,通过将节点采样策略的优化进行对抗式强化学习,以及引入一种新的分层注意力方案,来提高图卷积网络(Graph Transformer)的性能,实验结果显示了新方法的优越性。
- 实体增强的自适应重建网络用于弱监督的指称表达绑定
本研究提出了一种适应性重构网络,通过语义相似性计算、自适应定位和协作重构等三个模块的方式,克服弱监督条件下目标与表达之间的对应关系不足引发的问题,在五个数据集上的试验结果表明该网络优于现有的最先进方法。
- EMNLP异构图神经网络用于关键词生成
提出一种新的基于图的关键词生成方法,结合层次化注意力和拷贝机制,借鉴相关文献的显式知识,取得显著的成果。
- ACLH-Transformer-1D: 序列快速一维分层注意力
本研究提出了一种高效的基于矩阵结构的层次注意力方法,并证明了这种方法在自然语言和视觉任务中捕捉层次结构的归纳偏差是有效的,相比于其他次二次方提议在 Long Range Arena 基准测试上平均提高了 6 个百分点,在 One-Billi - 层次标签关注网络和标签嵌入初始化的临床笔记可解释自动编码
本文提出了一种层次化标签注意力网络(HLAN)和标签嵌入(LE)初始化方法,旨在提高自动化医学编码的性能并改善深度学习模型的可解释性,在使用 MIMIC-III 出院摘要进行实验后,结果表明 HLAN 在预测排名前 50 个编码时实现了最佳 - EMNLP分层细化标签注意力网络用于序列标注
提出一种基于层级注意力机制的标签嵌入模型,较传统的 BiLSTM-CRF 有更好的标签序列表示性能,能显著提高词性标注、实体识别和语法标记任务的标注效果并缩短训练和测试时间。
- ACLHow2 视频的多模态抽象摘要
研究了多源建模摘要提取方法在开放领域视频领域的应用。通过构建一个多源的序列 - 序列模型,集成来自视频和音频文字转写的信息,完成了一个流利的文本摘要,并使用 Content F1 评价指标来度量其语义适当性。
- ACL实体建模的数据生成
该论文介绍了一种以实体为中心的神经体系结构,用于生成数据到文本的任务,并通过在 RotoWire 基准和棒球领域的新数据集上进行的实验,表明该模型在自动和人类评估上优于竞争基线。
- ACL上下文感知的选择性关注神经机器翻译
提出了基于上下文感知 NMT 的层次化注意力机制来处理整个文档的翻译,并使用稀疏注意力机制在文档上选择性地关注相关句子和关键词,将这些注意力模块产生的文档级上下文表示集成到 Transformer 模型的编码器或解码器中,通过在英德数据集上 - 机器阅读理解中的双向问答网络
该论文提出了一种新颖的双向神经序列转换模型,能够同时学习阅读理解中的三种知识输入方式,即问题、答案和上下文,并通过分层注意力过程对不同形态之间的交互信息进行捕捉和建模。该模型在四个公开数据集上的表现优于其他同类神经网络模型,尤其在问题回答和