Jun, 2024

利用大型语言模型进行临床自然语言处理中基于无知识弱监督的优化

TL;DR使用弱监督和微调大型语言模型(LLM)的方法,在几乎没有领域知识的情况下,能够在性能上显著优于传统的有限的标准数据的监督方法,利用基于提示的方法,LLM生成弱标记数据来训练下游的BERT模型,然后将弱监督模型进一步在少量的标准数据上进行微调,通过评估发现该方法优于out-of-the-box PubMedBERT 4.7%至47.9%的F1得分。