ITTC @ TREC 2021 临床试验赛道
多伦多大都市大学参与 TREC 临床试验领域 2023 年的研究,在实验中利用先进的自然语言处理技术和神经语言模型,检索相关性最高的临床试验,并展示了整体的方法论、实验设置和结果。
Mar, 2024
本文介绍了 2020 年 Text Retrieval Conference (TREC) 的 Podcast Track,包括检索和摘要两个任务,提供了各个参与者的实验结果。此 Track 将在 2021 年 TREC 继续进行,略作修改以响应参与者的反馈意见。
Mar, 2021
探究了不同的查询表示方法结合不同的检索模型对检索性能的影响,同时提出了一种基于关键词提取方法的检索模型,并通过实验表明,该方法结合传统或基于决策论的相关性模型,可以显著提高查询效果。
Jul, 2022
本篇论文介绍了一个新的 NLI4CT 资源,包括两个主要任务:确定自然语言陈述和 CTR 之间的推理关系以及检索支持事实以证明预测关系。该资源暴露了现有 NLI 模型的局限性,为 CTR 推理提供了基础,大大推进了 CTR 的个性化医疗领域的研究。
May, 2023
这篇论文介绍了 SemEval 2023 任务 7 的结果 -- 临床试验数据的多证据自然语言推断(NLI4CT),包括两个任务:自然语言推断任务和临床试验数据的证据选择任务。
May, 2023
本研究旨在研究开发一个基于 NLP 技术,应用于临床试验数据中的证据检索和自然语言推理任务的系统。该研究介绍了两个系统,一个是将两个任务分别建模的 Pipeline 系统,另一个是同时学习两个任务并采用共享表示和多任务学习方法的 Joint 系统。最终系统采用集成学习方法来结合这两个系统的输出,并提供了结果分析。
Apr, 2023
TREC 2019 新推出的 Deep Learning Track 使用大量标注数据,对包含三百万文档和五十万训练查询的 Ad Hoc 排名展开研究,结果 Deep Learning 方法在 15 组提交的 75 个运行中取得了优异的表现。
Mar, 2020
本文介绍了一种新的任务和语料库,通过全文文章描述随机对照试验 (RCT) 的方式,推断与给定干预、比较和预期结果相关的报告发现,结果表明这项任务的困难性主要归因于长篇的技术性输入文本。
Apr, 2019
该研究介绍了一个原型工具,结合多种可视化方式,帮助终端用户理解临床文本中提取出的信息,修正必要错误,形成反馈循环,支持 NLP 模型的优化。针对该工具进行的临床医生和研究人员的用户研究显示,用户可以快速开始修正 NLP 模型,尽管他们很少或没有机器学习经验。研究结果还提供了优化界面以支持结果审查工作流程和解释的建议。
Jul, 2017
提出 SemEval-2024 任务 2:用于临床试验的安全生物医学自然语言推理,旨在挑战大语言模型在干预和因果推理任务方面的能力,并提供方法和结果的全面评估,以促进医疗保健领域中自然语言推理模型的鲁棒性和适用性,确保在临床决策中更安全可靠的 AI 辅助。
Apr, 2024