基于注意力图神经网络的多标签文本分类
提出一种名为 Knowledge-enhanced Doc-Label Attention Network (KeNet) 的新方法,通过综合的文档、知识和标签表示来预测每个文本的所有标签,并在多个多标签数据集上进行了综合验证,实验证明我们的方法优于现有的多标签文本分类方法。
Mar, 2024
通过引入多任务学习和标签相关性反馈机制来增强标签相关性学习,其中采用文档 - 标签交叉注意力机制来生成一个更具有区分度的文档表示,以及两个辅助标签共现预测任务来增强标签相关性学习,实验结果表明,我们的方法在 AAPD 和 RCV1-V2 数据集上优于竞争性基线方法。
Jun, 2021
通过构建邻接矩阵及应用 GCN 模型对标签进行建模,从而解决多标签文本分类中标签的序列乱序问题,并利用集合预测网络同时使用句子信息和标签信息进行分类。此外,使用巴氏距离对输出概率分布进行约束,提高了召回能力。实验证明,该方法在多个数据集上表现优异,胜过之前的方法。
Apr, 2023
本文提出了一种利用深度强化学习的新型序列到集合框架,不仅可以捕捉标签之间的关联性,而且还可以减少对标签顺序的依赖,实验结果表明我们提出的方法明显优于竞争基线。
Sep, 2018
使用反事实文本分类器(CFTC)通过阻止相关性偏见来消除标签依赖引起的预测偏见。实验证明,我们的 CFTC 在数据集上明显优于基准模型并有效消除了相关性偏见。
Oct, 2023
本研究在多个数据集上评估了多种 Large-scale Multi-label Text Classification 方法,发现基于概率标签树的层次分类方法优于 Label-Wise Attention Networks。另外,结合 Transformer 的方法在两个数据集上实现了优秀的性能,同时提出了一种新的最先进的方法,将 BERT 与 LWANs 相结合。此外,还引入了图形感知注释接近度度量,提出了利用标签层次结构来改进少量和零 - shot 学习的新模型。
Oct, 2020