临床阅读理解:emrQA 数据集的全面分析
通过重新利用其他 NLP 任务的现有注释,我们提出了一种新的方法来生成特定领域的大规模问答(QA)数据集。我们利用社区共享的 i2b2 数据集中临床笔记的现有专家注释,生成了大规模的电子医疗记录 QA 数据集 emrQA,其中包含 100 万个问题 - 逻辑形式对和 40 多万个问题 - 答案证据对,并通过基线模型训练来探索其学习潜力。
Sep, 2018
该研究提出了一个名为 MedQA 的问答任务,使用大规模文档集中的知识研究临床医学中的问题解答。提出了一种基于 LSTM 网络和双路径注意力架构的模块化端到端阅读理解模型 SeaReader,其具有从两个角度建模信息流和同时读取和整合多篇文档的能力。实验证明,SeaReader 在 MedQA 上比竞争模型实现了大幅提高,同时开发了一系列新技术以展示 SeaReader 问题解答过程的解释。
Feb, 2018
利用临床病例和 100,000 个问题构建了医学领域的机器理解数据集,发现在需要运用领域知识和对象追踪的推理中,机器阅读器的表现较好,然而在识别省略信息和进行时空推理方面仍有较大提升空间。
Mar, 2018
研究了大型语言模型在临床和生物医学领域中与相关知识的召回和整合性方面的性能,发现指导调优等因素能够提高召回和理解能力,并展示了在医学知识数据集上进行直接微调的鼓舞人心的结果,为语言模型中的临床知识表示学习的进一步发展提供资源和标准方法论。
Jun, 2024
机器阅读理解在医疗问答系统中发挥着重要作用,本研究通过整合专门的医学数据集和创建专用数据集的方法,提高了问答系统的准确性,为临床决策和医学研究的进展做出贡献。通过对 BERT、RoBERTa 和 Tiny RoBERTa 等模型进行微调,显著提高了对医学内容的响应准确性。
Apr, 2024
本篇研究提出了一种半自动化的消融实验方法,通过检查即使除去与语言理解相关的特征后是否仍然能回答问题,来评估语言理解能力挑战数据集的性能,实验结果表明,很多问题并不需要语法复杂的推理,为了精准评估 MRC 数据集,需要在设计时额外注意。
Nov, 2019
在 Machine Reading for Question Answering (MRQA) 2019 shared task 中,我们通过将 18 个不同的 question answering 数据集调整并统一格式来评估阅读理解系统的泛化能力。参赛的 10 个团队尝试了不同的想法,如数据采样、多任务学习、对抗训练和集成学习等,在 12 个被隐藏的测试数据集上,最好的系统平均 F1 分数为 72.5,比基于 BERT 的初始得分高了 10.7 个绝对点。
Oct, 2019
本论文介绍了一个多目标的医疗领域机器阅读理解任务,同时提出了一个高质量的医学数据集 CMedMRC,并提出了一种医疗 BERT 模型 CMedBERT,这种模型通过异构特征的动态融合和多任务学习策略将医学知识融入到预训练的语言模型中,实验表明 CMedBERT 通过融合上下文感知和知识感知的令牌表示,始终优于强基线。
Aug, 2020