ECG-QA:结合心电图的全面问答数据集
该研究开发了第一个多模式药物电子健康记录问答数据集,其中包含从公开可用的电子健康记录中结构化表格和非结构化笔记中提取的问答对。研究目的是为多模式问答系统提供基准数据集,并通过使用非结构化临床数据的上下文来改善电子健康记录结构化数据上的问答。
May, 2022
通过重新利用其他 NLP 任务的现有注释,我们提出了一种新的方法来生成特定领域的大规模问答(QA)数据集。我们利用社区共享的 i2b2 数据集中临床笔记的现有专家注释,生成了大规模的电子医疗记录 QA 数据集 emrQA,其中包含 100 万个问题 - 逻辑形式对和 40 多万个问题 - 答案证据对,并通过基线模型训练来探索其学习潜力。
Sep, 2018
通过整合医学影像和表格模式,本研究提出了一个新颖的多模式电子健康问答数据集(EHRXQA),以增强当前电子健康问答系统中的联合推理潜力,并改进真实医学场景中的临床决策和研究。
Oct, 2023
该研究对现有关于电子病历问答的工作进行了方法学综述,发现电子病历问答是相对较新且未被充分探索的研究领域,对于电子病历问答数据集和模型的使用进行了分析。
Oct, 2023
本文介绍了 Discharge Summary Clinical Questions(DiSCQ)这一新的数据集,由 100 多个 MIMIC-III 出院摘要中的医学专家生成了 2000 多个问题。我们进行了基于触发词检测的质量评估,发现在 62% 的情况下,基线模型能够高质量地生成问题,并用无监督的答案检索对其进行配对。这项研究的目的是为了进一步研究现实临床问答和问句生成。
Jun, 2022
本论文深度分析医疗领域的机器阅读理解 (CliniRC) 任务,重点关注 emrQA 数据集的缺陷及性能,证明对于未来数据集的创建需考虑利用领域知识和通用性。
May, 2020
本文旨在开发一个新的数据集,用于研发和评估临床试验问题回答系统,该系统可以处理自然的多答案和多焦点问题。通过使用 2018 年国家 NLP 临床挑战(n2c2)语料库进行注释关系,包含 1 到 N、M 到 1 和 M 到 N 药品 - 事件关系,形成多答案和多焦点的 QA 项目,可以更好地挖掘围绕答案的线索,培训和评估需要处理多重答案和多重焦点问题的系统。
Jan, 2022
本研究介绍了 Event-QA 数据集,该数据集专注于回答关于事件的问题,针对现有 QA 系统和数据集关注于实体问题的情况,提供了一种新的回答事件问题的方法。
Apr, 2020
PubMedQA 是一个从 PubMed 文摘中收集的生物医学问答(QA)数据集,共有 1k 位专家注释,61.2k 未标记和 211.3k 人工生成的 QA 实例,其中每个实例包括一个问题、相应的摘要、一个长答案和一个总结性答案。采用 BioBERT 的多阶段微调方法,结合长答案单词统计做为额外监督,实现了 68.1% 的准确率,比人类单一表现的 78.0% 的准确率还有改进的空间。
Sep, 2019
该研究提出了一个多选题答题测试平台 HEAD-QA,以鼓励对复杂推理问题的研究。研究者使用了来自西班牙医疗系统专业职位考试的问题,在单语言(西班牙语)和跨语言(到英语)信息检索和神经技术实验方面进行了测试。结果表明 HEAD-QA 挑战了当今的方法,并且与人类表现相差甚远,证明它作为未来工作的基准测试具有实用性。
Jun, 2019