NEAR: 临床概念命名实体和属性识别
通过在 Apache Spark 之上重新实现 Bi-LSTM-CNN-Char 深度学习架构,我们提出了一个单可训练的命名实体识别(NER)模型,该模型在七个公共生物医学基准测试中获得了新的最优结果,而不使用像 BERT 这样的重型上下文嵌入。该模型在生产级别代码库中作为开源 Spark NLP 库的一部分免费提供,并且可以扩展以支持其他人类语言,而不需要更改代码。
Nov, 2020
本文提出了一种集成多种模型的混合方法,以解决生物医学实体识别中的局限性,并在 i2b2/2010 数据集上评估,得到了 90.11 的 F1 分数。
Dec, 2023
该文介绍了一种文本挖掘框架,利用 Named Entity Recognition 和 Relation Extraction 模型对医学文献和数字临床记录进行处理,取得优异的实验结果,并构建了一个生物医学知识图谱。系统使用 Spark NLP 库提供的生产级、可伸缩、硬件优化、可训练和可调整的 NLP 框架。
Dec, 2021
本文基于图形依存解析思想,利用双仿射模型对输入进行全局视图,探索所有语句中的跨度,以准确预测命名实体,以 Nested NER 为例, 对 8 个语料库进行了评估并取得了所有语料库的 SOTA 性能,最高的准确度增益高达 2.2 个百分点。
May, 2020
本报告提出了一种基于条件随机场层和双向 LSTM 层的神经网络体系结构,其中嵌入向量(Glove,BERT)的融合输入被用来增强模型的泛化能力,还引入了一个分类模型来分离句子并对弱类和强类进行优化以提高 Named Entity Recognition 任务的性能。经实验证明,该方法显著提高了弱类的表现结果,并且只使用了非常少量的数据集。
Mar, 2020
NanoNER 是基于本体知识和远程监督学习的专业领域命名实体识别模型,在 Nano 生物学领域检测先前已知实体的识别准确性为 0.98,并展示了发现新实体的能力(精确度为 0.77 至 0.81),该方法对外部资源的依赖性和 30% 的识别减弱引发的重新发现能力得到了验证。该研究为未来专业领域命名实体识别研究提供了有价值的方法和重要发现,并能推广到其他专业领域,并减少人力资源占用。
Jan, 2024
本论文提出了一种基于 transformer 的方法来解决在生物医学领域中监督命名实体识别(NER)的挑战,包括零样本和少样本 NER。该方法基于将多类令牌分类的任务转化为二进制令牌分类,并在更多数据集和医学实体上预训练,从中可以学习给定实体和潜在类之间的语义关系。使用 PubMedBERT 调整模型进行的实验结果表明,该方法具有识别有限样本中的新实体的能力,对于零样本 NER 的平均 F1 得分达到 35.44%,对于 10 样本和 100 样本 NER 的平均 F1 得分分别为 69.94%和 79.51%。该方法可与目前的先进零样本和少样本 NER 方法相媲美甚至更好。
May, 2023
本文提出了一个多任务学习框架,可以用于对生物医学命名实体进行识别并提高性能。该模型在 15 个基准生物医学命名实体识别数据集上的实验表明,它比现有的命名实体识别系统和基线序列标注模型都要好,此外,性能提升大部分来源于在不同的标注数据之间共享生物医学实体相关的字符和单词级别的信息。
Jan, 2018
本研究提出了一个新的生物医学方法实体识别数据集,利用自动化的生物医学方法实体识别和信息检索系统来辅助人工注释。此外,我们全面探索了一系列传统和现代的面向开放领域的命名实体识别方法,包括针对我们数据集进行定制的最新大规模语言模型(LLMs)的使用。我们的实证研究发现,令人惊讶的是,语言模型的大参数数量阻碍了与生物医学方法相关的实体提取模式的有效吸收。显著地,结合条件随机场(CRF),利用体积适中的 ALBERT 模型(仅 11MB),取得了最先进的性能(SOTA)。
Jun, 2024