基于分层可扩展查询的融合 Transformer 增强分类
本文提出了一种新颖的分层注意力网络,用于阅读理解式问题回答,在问题和段落之间的不同粒度层次上水平和垂直进行注意力和融合。通过具有精细语言嵌入的问题和段落的编码,引入多粒度融合方法来全面融合来自全局和受关注表示的信息。最后,引入分层注意力网络,通过多级软对齐逐步聚焦于答案跨度。广泛的实验在大规模 SQuAD 和 TriviaQA 数据集上验证了所提出方法的有效性,同时在 TriviatQA、AddSent 和 AddOne-Sent 数据集上达到了最先进的结果。
Nov, 2018
本文提出了一种简单而有效的方法来解决多标签分类问题,该方法利用 Transformer 解码器查询类标签的存在,并使用视觉骨干计算的特征图来进行后续的二进制分类,相比于以前的工作,该方法更为简单有效,对于五个多标签分类数据集,包括 MS-COCO,PASCAL VOC,NUS-WIDE 和 Visual Genome,始终优于以前的所有工作,我们在 MS-COCO 上建立了 91.3%的 mAP。
Jul, 2021
通过增强的表示学习和细粒度实例关系的对比损失,以及关注内在标签分类法的细粒度层次分类损失,我们提出了一种新颖的框架来解决层次化查询分类的挑战,同时利用与已标注查询共享的无标签查询的相似性智能地选择这些查询以提高分类性能。实验证明,我们的方法优于专有的 Amazon 数据集上的最先进方法,并与 Web of Science 和 RCV1-V2 的公共数据集中的最先进方法相媲美,这些结果凸显了我们提出解决方案的有效性,并为下一代层次感知查询分类系统铺平了道路。
Mar, 2024
本文提出了一种多任务学习框架,同时优化分类和相似性约束,将标签结构(如层次结构或共享属性)嵌入到框架中以建模多级相关性,从而实现精细的特征表示,并在细粒度数据集上得到了非常竞争的性能。
Dec, 2015
本研究提出了一种基于 Transformer 的 Two-headed DragoNet 模型,用于金融交易的分层多标签分类。我们的模型基于一系列 Transformer 编码层,从两个简短的文本描述(商家名称和业务活动)生成上下文嵌入,然后经过一个上下文融合层和两个输出头根据两级分类法(宏观和微观类别)对交易进行分类。最后,我们提出的基于分类法的注意力层修正了违反给定分类法定义的层次规则的预测。在基于卡片的数据集上,我们的提出方法在宏观类别分类的实验中表现优于传统的机器学习方法,达到了 93% 的 F1 分数;在活期账户数据集上达到了 95% 的 F1 分数。
Dec, 2023
本文采用几种神经网络结构进行细粒度实体类型分类研究,并考虑了对最近提出的注意力神经结构的扩展,得出了三个关键贡献:结合学习和手工特征,同时观察它们互补作用;定量分析表明该注意力机制能够学习关注句法头和包含提及的短语,在我们的任务中,这些都是强大的手工特征;通过分层标签编码方法实现参数共享,在低维投影中显示出每种类型层次的明显聚类;虽然使用相同的评估数据集,但文献经常比较使用不同数据训练的模型,我们发现训练数据的选择对性能有显着影响,甚至会降低先前提出的方法的松散微 F1 得分高达 9.85%,但我们的最佳模型在广为人知的 FIGER(GOLD)数据集上实现了最新成果,松弛的微 F1 得分为 75.36%。
Jun, 2016
研究提出了一种多阶段的 Vision Transformer 框架,用于细粒度图像分类,可在不需要架构变化的情况下定位信息图像区域。 Attention-guided 增强技术提高了模型性能,并在四个流行的细粒度基准测试中进行了实验,同时通过定性结果证明了模型的可解释性。
Jun, 2021
该论文提出了一种基于层次化注意力融合网络和多尺度特征的 2D 图像检索方法,通过自监督训练控制特征强调的权重,实现了对地理定位场景的精确定位。实验结果表明,该方法优于现有的最先进方法。
Feb, 2021
该研究论文提出了一种利用弱监督目标定位来学习物体定位的方法,通过多尺度物体定位变换器(MOLT)和深度聚类引导精化方法提高了定位准确度,并在公开的 ILSVRC-2012 数据集上进行了实验证明了该方法的有效性。
Dec, 2023
本文提出了一个基于 Transformer 的框架,通过聚合特征来处理细粒度视觉分类任务,其中引入了一种新的令牌选择模块(MAWS)来引导网络有效地选择具有判别性的令牌,从而实现了最先进的性能。
Jul, 2021