医学领域中语言模型距离 100% 几类样本命名实体识别有多远
该研究探讨了大型语言模型在医学领域中的应用,通过策略性地选择和设计提示语,增强模型在命名实体识别任务中的性能,并结合外部资源通过提示策略填补医学命名实体识别领域中的专业需求与通用语言模型之间的差距,最终提出的方法能够提高大型语言模型在医学命名实体识别任务中的 F1 分数。
Apr, 2024
llmNER 是一个用于实现 LLMs 的零射击和少射击 NER 的 Python 库,通过提供易于使用的接口,llmNER 可以组合提示、查询模型,并解析 LLM 返回的完成结果。该库还通过提供简单的接口来测试多个变量,让用户可以高效地执行提示工程。我们在两个 NER 任务上验证了我们的软件,以展示该库的灵活性。llmNER 旨在推动上下文学习研究的界限,消除提示和解析步骤的障碍。
Jun, 2024
对于临床实体识别任务,大型语言模型的少样本能力在低资源环境下取得高性能,但在临床领域,轻量级的监督标注模型结合掩蔽语言模型的表现更好,并且二者的 CO2 排放量相对较低。
Feb, 2024
评估四个最先进的面向指令的大型语言模型(ChatGPT、Flan-T5 UL2、Tk-Instruct 和 Alpaca)在 13 项真实世界的临床和生物医学自然语言处理(NLP)任务,如命名实体识别(NER)、问答(QA)、关系抽取(RE)等方面的表现。总体结果表明,评估的语言模型在大多数任务的零样本和少样本场景中已经接近最先进模型的性能,尤其在 QA 任务中表现出色,即使它们之前从未见过这些任务的示例。然而,我们观察到分类和 RE 任务的性能低于专门训练用于医学领域的模型(如 PubMedBERT)所能达到的水平。最后,我们注意到没有一个语言模型在所有研究任务中都胜过其他模型,某些模型在特定任务中更适合。
Jul, 2023
通过将大型语言模型(LLMs)应用于生物医学命名实体识别(NER)任务,将 NER 任务分解为实体跨度提取和实体类型确定两个步骤,同时注入实体知识以解决 LLM 在预测实体类别时缺乏领域知识的问题,实验证明了我们的两步 BioNER 方法相对于之前的少样本 LLM 基线在性能上有显著提高,而引入外部知识则显著增强了实体类别确定性能。
Sep, 2023
通过全面的实证评估,我们表明在生物医学文本中,受监督的微调方法仍然相关且比通用性的大型语言模型更有效,如 PubMedBERT 可以仅凭 5 个受监督示例就能在命名实体识别任务上超过 ChatGPT。
Apr, 2024
LLMs 在自然语言处理中的应用已成为近两年的热门趋势,然而,对于某些 NLP 任务,如 NER,在与监督学习方法相比较时,LLMs 的性能仍然不足以胜任。我们的研究开发了一种名为 LTNER 的 NER 处理框架,该框架融入了一种革命性的上下文化实体标记生成方法,通过利用成本效益高的 GPT-3.5 以及无需额外训练的上下文学习,显著提高了 LLMs 在处理 NER 任务时的准确性。在 CoNLL03 数据集上的 F1 得分从初始的 85.9% 增加到 91.9%,接近了监督微调的性能,这一结果增进了对 LLMs 潜力的深入认识。
Apr, 2024
本文提出了一种有效地建立识别命名实体(NER)系统的方法,基于最近的基于转换器的自我监督预训练语言模型(PLMs),并探讨了三种正交的方案来改进针对少样例情况的模型泛化能力,通过大量实验结果表明,我们的方法在少数样例学习环境中显著改善或优于基于域标记微调的 PLM 线性分类器等基线方法,同时在无训练和少样例学习环境下建立了最新的业界记录。
Dec, 2020
本文介绍了一种基于 GPT 模型的 NER 算法 ——GPT-NER,它通过将序列标注任务转化为生成任务来弥补 LLMs 在 NER 任务上的缺陷,并提出自我验证策略以解决 LLMs 易出现的幻觉问题。实验结果表明,该算法表现与有监督算法相当,在低资源学习中表现显着优于有监督模型,具有实现限制样本 NER 应用的能力。
Apr, 2023
通过将生物医学实体识别重新定义为机器阅读理解问题,提出了一种基于演示学习的方法来改进在少样本学习场景下的模型识别生物医学实体的能力。使用六个基准数据集进行评估,结果表明 MRC 语言模型在识别生物医学实体方面比序列标注方法更为高效,并且可以与依赖大量标注数据的全监督学习方法竞争成功,为少样本生物医学实体识别方法的未来发展提供了可能的方向。
Aug, 2023