本研究介绍使用标签嵌入技术来加强文本分类系统在特殊场景下的性能表现,并在基准数据集上取得了显著的成果。
Dec, 2022
采用标签 - 词汇联合嵌入法和注意力机制的词嵌入模型,用于文本分类并保持了词嵌入的可解释性,同时提供了利用其他信息的能力。在多个大型文本数据集上实验表明,该方法在准确率和速度方面均优于现有最先进方法。
May, 2018
本论文提出了一种名为 IDEA 的方法,该方法利用多标签识别来增加文本多样性,从而提高视觉语言预训练(VLP)的性能,实验证明该方法可以在多个下游数据集上显著提升性能。
Jul, 2022
该研究提出了一种使用跨模态关注力和语义图嵌入的方法来进行多标签分类,该方法能够有效捕获标签之间的空间或时间依赖关系,并发现每个类的具有区分性特征的位置,实验结果表明该方法优于现有的最先进技术。
Dec, 2019
论文提出一种新的方法,使用图像标题和来自图像搜索引擎的点击数据来学习文本 - 视觉嵌入,并通过建模嵌入的积极感知提出新的三元损失函数,以及引入一种新的基于小批次的难例负采样方法来提高学习过程的数据效率,实验结果表明,该方法的表现优于现有方法,并且对于现实世界的文本到视觉检索也十分有效。
May, 2019
该论文描述了一种新颖的自动 ICD 编码方法,结合了先前相关工作的几个思想。我们特别采用一种强大的基于 Transformer 的文本编码模型,并针对冗长的临床叙述,探索了将基本编码模型调整为 Longformer,或者将文本分成块并独立处理的方法。编码器产生的表示与标签嵌入机制相结合,探索了多样的 ICD 编码同义词。通过使用 MIMIC-III 数据集的不同拆分进行实验,结果显示提出的方法在 ICD 编码方面优于当前最先进的模型,并且标签嵌入显著促成了良好的性能。该方法还导致适当校准的分类结果,可以有效地用于下游任务如数量化。
Feb, 2024
该文章提出了一种基于 BERT 的新方法,在识别复杂 token 中的语义信息时,通过提出的子词注意适配器(SAA)来保留整个话语信息。此外,我们还提出了一个意向注意适配器(IAA)来在模型中实现整句特征提取,从而改进了预测性能,最终,我们在两个公共基准数据集上取得了显著的性能提升。
Nov, 2022
本文提出了一种基于 Dual-view distilled BERT~(DvBERT) 的句子匹配方法,该方法能够捕捉多个角度的句子信息,进而提升表征能力,相较于 state-of-the-art 方法,在六个 STS 任务上达到了更好的效果。
Apr, 2021
本文提出了一种基于 k 最近邻分类的替代方法,学习任务特定的文本嵌入表示方式,从而实现解释性和增量学习,而不影响分类准确性。
本文介绍了一种使用语义嵌入深度神经网络,采用基于空间感知语义特征和通道注意力模型的方法来提高多标签预测模型性能的方法。实验证明,与基线方法相比,该方法平均相对改进 15.27%,在 Instagram 时尚服装图像上进行了多标签时尚属性分类的核心实验和消融研究,并将模型性能与我们的方法进行比较,发现我们的方法性能更优秀。
May, 2023