EMNLPOct, 2023

探索语料多样性对金融预训练语言模型的影响

TL;DR过去几年中,已经提出了各种领域特定的预训练语言模型(PLMs),并在生物医学、科学和临床领域等专业领域表现优于通用领域的 PLMs。此外,由于财务数据分析的经济影响巨大,金融 PLMs 也受到了研究的关注。然而,我们发现金融 PLMs 在预训练过程中未使用足够多样化的金融数据。这种缺乏多样化训练数据导致其泛化性能不佳,导致通用 PLMs(包括 BERT)在许多下游任务上通常胜过金融 PLMs。为了解决这个问题,我们收集了广泛的金融语料库,并在这些多样化的数据集上训练了金融语言模型(FiLM)。我们的实验结果证实,FiLM 不仅在现有金融 PLMs 上表现出色,还在通用领域 PLMs 上表现优异。此外,我们提供了实证证据,即这种改进甚至适用于未见过的语料库组。