Oct, 2022
跨领域预训练语言模型在临床文本挖掘中的表现:在数据受限的微调中如何表现?
On Cross-Domain Pre-Trained Language Models for Clinical Text Mining: How Do They Perform on Data-Constrained Fine-Tuning?
Yuping Wu, Lifeng Han, Valerio Antonini, Goran Nenadic
TL;DR本文通过使用历史数据比较了预处理训练的生物医学领域模型(PLMs)和使用 Transformer 和 CRFs 模型的模型(TransformerCRF),并发现在临床文本挖掘任务中它们的性能表现最差。