本文提出了 Multi-CLS BERT 方法,它是一种高效的 BERT 模型集成方法,不需要在测试时运行多个 BERT 模型,只需要运行单个 Multi-CLS BERT 模型。在 GLUE 和 SuperGLUE 数据集上,实验证明这种方法能够显著提高准确度和置信度。
Oct, 2022
使用对比学习来微调句子 Transformer 模型,生成科学文章中的句子级嵌入,并将其用于科学文章中的句子分类任务,取得了显著的改进。
Mar, 2024
本研究报告介绍了基于预训练语言模型的转移学习方法在学术文献分类中的运用。通过丰富数据集、使用不同的预训练语言模型,并调整超参数,研究发现 fine-tuning 预训练模型可以显著提高分类性能,其中 SPECTER2 模型效果最佳。此外,将额外的元数据加入数据集,尤其是来自 S2AG、OpenAlex 和 Crossref 的信息,可以进一步提高分类结果。本研究对于构建可靠的自动化学术出版物分类系统具有重要意义,为研究人员高效定位相关资源提供了潜在解决方案。
May, 2024
提出了一种新的方法 SPECTER 来基于引用图预训练 Transformer 语言模型以生成科学文件的文件级嵌入,在包括文献预测、文档分类和推荐等七种文档级任务上优于多种竞争基线。
Apr, 2020
该论文介绍了一种使用 SciBERT 模型和 CNN 的新方法,通过处理摘要、正文、标题和关键词等多个部分,以解决多标签文本分类中的语义关系和类别不平衡问题,并在文献综述效率方面取得显著改进。
Apr, 2024
通过在多个领域进行预训练和弹性权重整合,可以提高通用和医学任务的性能。
Oct, 2020
本文介绍了一个系统,它包括四个独立子系统,能够将科学文献的摘要分类到给定的七个类别中,通过对这四个子系统的集成,可以得到一个在测试和验证集上 F1 分数为 0.93 的最终系统,优于现有的最先进模型 SciBERT 的 F1 分数。
Feb, 2021
本研究提出 SCDV-MS 方法,结合多义词嵌入及学习降维流形,用于文本表示与分类。实验结果表明,相较于先前方法,SCDV-MS 在多类别和多标签文本分类任务上性能更高,而且在时间及空间复杂度上更高效。
Nov, 2019
本研究系统地比较了使用 LASER、LaBSE 和 Sentence BERT 预训练的多语言模型从句子中生成文档级表示的方法,证明了对于多语言任务来说,通常使用句子嵌入的巧妙组合要优于将整个文档编码为单个单元,并且说明了虽然简单的句子平均值对于分类任务来说已经有一定的效果,但对于语义任务来说需要更复杂的组合。
Apr, 2023
提出了一个系统化的方法,以帮助选择最有效的嵌入模型进行自然语言处理(NLP)任务的开发框架,解决了专有和开源编码器模型的泛滥所带来的挑战。