基于视觉注意力的无序RNN多标签分类
我们提出了一种适用于前馈神经网络的简化注意力模型,并证明其可解决比这些任务的最佳出版结果更长和更广泛变化的序列长度的综合“加法”和“乘法”长期记忆问题。
Dec, 2015
本文探讨使用循环神经网络中 attention 机制解决序列到序列问题的方法,并介绍相关的应用于计算机视觉中的算法并验证其优越性,同时也提出了未来的研究方向。
Jan, 2016
本文提出了一种基于卷积神经网络和循环神经网络的框架,用于多标签图像分类,通过学习图像标签嵌入特征,显式地利用了图像标签之间的关联性,拥有较好的分类性能。
Apr, 2016
探索多级上下文循环神经网络的多种上下文提示,将其结合到分级卷积神经网络中,提供丰富的空间和语义信息,并使用注意力模型来有效地合并多个级别,以实现在图像标签方面的最新结果。
Jul, 2016
提出一种利用LSTM网络同时学习句子级别分类任务和序列标注任务的模型,通过语义相关性对单词进行加权的稀疏注意力机制,该方法在ATIS和TREC数据集上表现优于基准模型。
Sep, 2017
本文提出了一种利用深度学习技术中的循环记忆-关注模块来实现图像多标签分类识别的新方法。通过不使用候选区域提取方法,从卷积特征图中定位注意区域,并使用 LSTM 子网络对这些区域进行语义标记和全局依赖性的序列预测。试验表明该方法在识别准确率和效率上均优于现有技术。
Nov, 2017
本文提出了一种新的多标签分类框架,不依赖于预定义的标签顺序,有效减轻暴露偏差,通过实验结果表明,相较于竞争基线模型,该方法具有很大的优势和更好的泛化能力,可生成更好的未训练标签组合。
Sep, 2019
本文提出一种动态排序正解标签的方法,用于多标签分类任务,以加快更优LSTM模型的训练。实验证明,该方法避免了生成重复标签,并超过了其他CNN-RNN模型的性能,证明了在挑战性的数据集上使用标准结构的图像编码器和语言解码器采用提出的损失函数可以得到最先进的结果。
Nov, 2019
本文提出了一种基于动态图卷积神经网络(D-GCN)和语义注意力模块(SAM)的注意力驱动动态图卷积网络(ADD-GCN)来消除训练数据中标签共现对模型泛化性能的影响,实现图像特征的提取和标签识别任务,并且在公共多标签基准测试中的结果表明该方法的有效性。
Dec, 2020