May, 2024

增强的 BERT 嵌入用于学术出版物分类

TL;DR本研究报告介绍了基于预训练语言模型的转移学习方法在学术文献分类中的运用。通过丰富数据集、使用不同的预训练语言模型,并调整超参数,研究发现 fine-tuning 预训练模型可以显著提高分类性能,其中 SPECTER2 模型效果最佳。此外,将额外的元数据加入数据集,尤其是来自 S2AG、OpenAlex 和 Crossref 的信息,可以进一步提高分类结果。本研究对于构建可靠的自动化学术出版物分类系统具有重要意义,为研究人员高效定位相关资源提供了潜在解决方案。