这篇论文介绍了利用自然语言处理和表示学习生成医学术语的嵌入,以更好的预测临床决策和患者轨迹,提出了一个新的医学术语表示模型 HiPrBERT,并使用层次结构数据来训练和提高嵌入效果。
Jul, 2023
该研究提出了 CODER:针对跨语言医学术语表现的知识图谱对比学习。CODER 通过对 Unified Medical Language System 进行对比学习进行训练,通过利用词条和关系三元组之间的相似性将医学知识注入到嵌入中,并旨在提供潜在的更好的机器学习特性,评估结果表明 CODER 在零样本术语归一化,语义相似性和关系分类基准方面优于各种最先进的生物医学词嵌入,概念嵌入和上下文嵌入。
Nov, 2020
通过自动创建的大规模医学术语相似性数据集,我们证实了当代嵌入向量对于医疗术语的语义相似性表达受到限制,并提出了具有挑战性的新的基准数据集,以便开发能够准确表示整个医学术语的医学嵌入向量。
Mar, 2020
通过对比学习和知识图谱嵌入的结合,尝试提高意大利医学领域中可用的词嵌入,从而提高医学术语之间的语义相似性,并获得了比起始模型显著的性能提升。
Nov, 2022
本文提出了一种新的方法来解决生物医学实体链接的问题,利用基于知识库的预训练和微调,以及多种类似词的构建方式来进行模型训练,这种方法在多项实验中都取得了最优结果。
Apr, 2022
使用大规模多模态医疗数据集,本文提出了一种新的 cui2vec 医疗概念词嵌入模型,并通过统计功率法进行了评估,结果表明该模型在大多数情况下相对于之前的方法具有最先进的性能。
Apr, 2018
通过利用大型语言模型的世界知识,我们提出了一种通过解释来增强术语表示并显著改进术语聚类的对比学习方法(CoRTEx),并通过修改的 BIRCH 算法将 Biomedical Informatics Ontology System (BIOS) 中的 35580932 个术语分成 22104559 个聚类,证明了 CoRTEx 在处理大规模生物医学本体术语聚类方面的优越性。
Dec, 2023
本文提出了一种集成多种模型的混合方法,以解决生物医学实体识别中的局限性,并在 i2b2/2010 数据集上评估,得到了 90.11 的 F1 分数。
本文提出了一种通过对比学习来改善科学文档表示的方法 —— 使用引文图嵌入进行所控制的最近邻抽样来学习连续的相似度,内容主要涉及对比学习、科学文档表示、引文图嵌入、相似度语义以及相关研究。
Feb, 2022
本研究使用连续词袋模型和注意力机制以及加入时间信息的方法进行医疗代码嵌入,实验结果表明该方法明显优于五种现有的基准模型。
Jun, 2018