May, 2023

在土耳其临床领域利用 BERT 的力量:有限数据场景下的预训练方法

TL;DR本研究旨在探讨语言资源有限情况下,各种预先培训方法对土耳其临床语言模型在涉及放射学报告的多标签分类任务中表现的影响,并通过利用有限的临床任务数据首次评估了同时进行预训练的方法。我们发现,在使用大量通用域语料库的情况下,通用土耳其 BERT 模型和 TurkRadBERT-task v1 表现最佳。此外,本研究还强调了预先训练期间领域特定词汇对于增强模型性能的重要性。