医学内容抽取式问答的序列标注
本文旨在开发一个新的数据集,用于研发和评估临床试验问题回答系统,该系统可以处理自然的多答案和多焦点问题。通过使用 2018 年国家 NLP 临床挑战(n2c2)语料库进行注释关系,包含 1 到 N、M 到 1 和 M 到 N 药品 - 事件关系,形成多答案和多焦点的 QA 项目,可以更好地挖掘围绕答案的线索,培训和评估需要处理多重答案和多重焦点问题的系统。
Jan, 2022
本文提出了一种基于多任务学习的科学问题验证方法,该方法结合了信息概括、布尔问答、提取式问题回答和语义理解技术。该方法在欧洲 PMC 的 300 万篇医学和健康领域 OA 文章上,在 BERT 和 RoBERTa 问答模型的实验中,实现了 4%的平均误差率和 95.6%的 F1 分数。
Apr, 2022
本文描述了我们在 2017 年 BioASQ 挑战赛中的参与,并重点关注生物医学问题回答技术。我们使用了一种抽取式 QA 模型,使用生物医学词向量来扩展 FastQA,并将其应用于提取输入文本片段的子字符串输出。我们将模型在大规模开放域 QA 数据集 SQuAD 上进行预训练,然后在 BioASQ 训练集上进行微调参数。通过我们的方法,我们在事实问题上实现了最先进的结果,并在列表问题上实现了有竞争力的结果。
Jun, 2017
本文提出了一种新方法,通过将阅读理解中的多串问题视为序列标注问题,使得模型不再局限于输出单一连续结果,而是可以输出多个分散的结果,实验结果在 DROP 和 Quoref 数据集上分别提升了 9.9 和 5.5 个 EM 点。
Sep, 2019
Biomedical entity linking is improved using BioELQA, a model that treats it as multiple choice question answering, capturing fine-grained interactions and addressing challenges with long-tailed entities.
Feb, 2024
该论文介绍了一种基于最新的语言建模技术构建的单一预训练问答模型 UnifiedQA,该模型在 17 个问题回答数据集中表现出色,甚至在面对 12 个观察过的格式数据集时也表现出了强大的泛化能力,并且该模型通过简单的微调就可以成为构建 QA 系统的强有力起点。
May, 2020
最近提出的长篇问答(QA)系统,在大型语言模型(LLMs)的支持下,展示了令人期待的能力。然而,为其生成的抽象回答归因和验证可能困难,并且自动评估其准确性仍然是一个持续的挑战。在这项工作中,我们介绍了一个新的 QA 任务,通过半抽取方式总结多个多样化的来源来回答多回答问题。具体来说,半抽取多源 QA(SEMQA)要求模型输出一个综合回答,同时混合了由给定的输入来源直接拷贝的事实引用片段和将这些片段连接成一个连贯段落的非事实自由文本连接器。这个设置弥合了受基于事实抽取的 QA 系统约束的输出与更流畅但更难以归因的完全抽象回答之间的差距。特别地,它利用了语言模型的先进语言生成能力的新模式,同时通过设计产生易于验证、解释和评估的细致内联归因。为了研究这个任务,我们创建了第一个这样类型的数据集 QuoteSum,其中包含人工编写的对自然问题和生成问题的半抽取回答,并定义了基于文本的评估指标。在不同设置下尝试了几个 LLM 后,我们发现这个任务出人意料地具有挑战性,这展示了 QuoteSum 用于开发和研究这种整合能力的重要性。
Nov, 2023
本文针对 SQuAD 数据集所提出的答案抽取任务,通过循环网络有效地构建了证据文档中所有跨度的固定长度表示,证明对显式跨度表示进行评分显著优于其他方法,并在 Wang&Jiang(2016)的最佳已发布结果上提高了 5%,并且将 Rajpurkar 等人的基线误差减小了 50%以上。
Nov, 2016