将知识图谱嵌入 BERT 进行文档分类
本研究报告介绍了基于预训练语言模型的转移学习方法在学术文献分类中的运用。通过丰富数据集、使用不同的预训练语言模型,并调整超参数,研究发现 fine-tuning 预训练模型可以显著提高分类性能,其中 SPECTER2 模型效果最佳。此外,将额外的元数据加入数据集,尤其是来自 S2AG、OpenAlex 和 Crossref 的信息,可以进一步提高分类结果。本研究对于构建可靠的自动化学术出版物分类系统具有重要意义,为研究人员高效定位相关资源提供了潜在解决方案。
May, 2024
本文提出了 VGCN-BERT 模型,结合 BERT 和 Vocabulary Graph Convolutional Networks (VGCN) 的能力进行文本分类,实验证明其在多个文本分类数据集上性能优于单独使用 BERT 和 GCN,并且比以前的研究效果更好。
Apr, 2020
为了解决文本中的语义模糊问题,我们提出了一个模型,创新地将知识图谱与改进的注意机制结合起来。该模型在字符和词级别上运作,通过集成概念来加深对文本的理解。我们首先采用信息增益选择重要词,然后采用编码器 - 解码器框架对文本及相关概念进行编码。本地注意机制调整每个概念的权重,在分类过程中减少不相关或噪声概念的影响。我们改进了本地自注意机制中注意分数的计算公式,确保文本中不同频率出现的词语获得更高的注意分数。最后,该模型采用了双向门控循环单元(Bi-GRU),从文本中提取特征以提高分类准确性。该模型在 AGNews、Ohsumed 和 TagMyNews 等数据集上达到了 75.1%、58.7% 和 68.5% 的准确率,展示了其在分类任务中的有效性。
Jan, 2024
本研究实验证明在 BERT 模型中加入基于图形的上下文信息会提高模型性能,并在 Pubmed 数据集上取得了 8.51%到 7.96% 的错误率减少,同时仅增加 1.6%的参数。
May, 2023
本研究使用 BERT 进行文档分类,并展示出其在四个流行数据集上的最新成果。为了解决 BERT 推理的计算开销,研究者提出使用知识蒸馏技术,将 BERT 的知识转移到小型双向 LSTM 中,并使用 30 倍更少的参数达到了 BERT-base 相当的性能。该研究的主要贡献在于提高了基线水平,为未来的工作提供了基础。
Apr, 2019
通过对三个语料库进行互相匹配,开展了 BERT 模型的实证研究。实验结果显示,与其他变量相比,该领域特定的预训练 BERT 变体最适合于关系检测任务,并且单次预测一个关系的策略通常比同时识别多个关系的策略表现更好,同时研究的结论还可以帮助数字图书馆利益相关者选择最佳的知识图谱辅助技术。
May, 2023
提出了一种使用从多个文档中动态检索的文本百科知识使输入文本脱离上下文进行表征的方法,并将该方法应用于阅读理解任务,其过程中将与实体相关的背景句子编码为问题和段落,并表明将文本中的背景知识进行集成对实现基于事实推理的任务是有效的,而且可以通过基于自监督遮蔽模型目标的适当预训练来进一步提高知识集成能力,在 TriviaQA 上,该方法相对于不动态整合背景知识的 RoBERTa 模型取得了 1.6 到 3.1 F1 的性能提升,在一组多样化的 QA 数据集上,如 BioASQ、TextbookQA 和 DuoRC,该方法在任务内有相当的提升,而在任务外的性能提升显著。
Apr, 2020
提出了一种用多个知识库来加强大型模型表示的方法,每个知识库都通过一个集成实体链接器来检索相关实体嵌入,然后通过单词与实体关注的形式更新上下文单词表示,经实验发现知识增强的 BERT 模型具有更好的性能,且运行时间与 BERT 相当。
Sep, 2019
我们提出了一种使用 Sentence-BERT(SBERT)和 RoBERTa 两种最先进的自然语言处理模型结合生成文档嵌入的新方法。通过将句子视为标记并为其生成嵌入,我们的方法可以捕捉文档内句子间和句子间的关系,从而生成更具语义丰富性和准确性的文档嵌入。通过对 Goodreads 数据集上的图书推荐任务进行实验,我们评估了我们的模型,并证明了其在生成嵌入方面的有效性。与仅使用 SBERT 生成的文档嵌入相比,我们使用 MULTI-BERT 模型生成的文档嵌入在嵌入质量方面始终表现更好,通过精确度作为评估指标,我们发现我们的模型能够捕捉到更细微的语义关系,从而实现更准确的推荐。总体而言,我们的结果证明了我们的方法的有效性,并表明这是一个改进推荐系统性能的有前途的方向。
Aug, 2023