Jun, 2024

从数学文本中微调 BERT 模型进行定义提取

TL;DR本研究使用三种预训练的 BERT 模型对数学英语 (使用 LaTeX 编写) 的 “定义提取” 任务进行微调,将其作为一个二元分类问题。通过对原始数据集 “芝加哥” 和 “TAC” 的微调和测试,以及与 Vanetik 和 Litvak 在 2021 年提出的 WFMALL 数据集的对比测试,我们发现高性能的 Sentence-BERT transformer 模型在整体准确度、召回率和精确度等指标上表现最佳,且相较于早期模型,所需的计算资源更少。