ICU 病人实验室测试的调度是一个重大挑战,先前研究基于病人信息使用离线强化学习方法为实验室测试定制最优策略,本研究在新发布的 MIMIC-IV 数据集上使用最新的离线强化学习方法评估和改进 ICU 病人实验室测试的调度策略。
Feb, 2024
该论文通过使用强化学习算法,基于患者重症监护室中的临床数据,开发出一种用于输注决策辅助的工具,结合状态表示方法和奖励设计机制进行了实验以提高策略的性能,并对真实医院数据的策略准确性进行了评估,结果表明,该方法能够有效地改善患者预后和减少医疗成本。
Jun, 2022
本研究比较并评估了三种在医疗决策中学习个性化治疗方针的方法:两种间接方法和一种直接方法。研究结果表明,三种方法均优于临床医生,并在不同目标之间进行权衡。直接方法还具有其他优点,包括灵活地将其他目标纳入考量,适用于简单情况的医师推迟。
Jun, 2020
我们工作的主要目标是通过匹配具有相似的医学和药物特征的患者,构建一个安全和可解释的框架,以识别最佳治疗方案,并证明了该框架在复杂环境中识别最佳策略的能力,特别是在治疗癫痫的关键病情上,个体化的治疗策略可以带来更好的结果。
Oct, 2023
提出一种基于历史数据的新型医疗决策模型,使用深度强化学习解决了传统去强化学习中与环境交互的问题,能够进行连续状态 - 行动决策空间中的决策,建议的治疗方案比临床医生建议的更具价值和可靠性,能够提供个性化和可解释的抗感染治疗决策,进而提高患者的护理水平。
开发了一种基于 “优势双倍稳健” 估计器的动态治疗规则学习方法,适用于顺序无关性假设,证明了福利遗憾界,展示了在几种不同背景下有希望的实证表现。该方法适用于政策优化,不需要任何结构性假设。
May, 2019
通过剪枝和训练最终模型两步,成功将中间生物标志信号融入到奖励范式中,在不损害主要结果的情况下,从中解出有价值的信息指导学习过程,从而在模拟环境和实际患者记录中成功开发了一种有效的离线强化学习方法,为开发可靠的策略迈出了一步。
Jun, 2023
探讨了在医院设置下在累计奖励相似的情况下使用基于时间差异学习和近似贪婪算法的无模型算法来学习集合值策略的替代目标,并在多个环境下进行了实证研究。
Jul, 2020
本文介绍了一种利用增强学习和奖励设计方法优化实验测试序列,以最大化 F1 得分和降低成本的动态诊断策略。作者使用基于半模型深度诊断策略优化 (SM-DDPO) 的方法处理多种临床任务的数据,实现了高准确性和高成本效益
Feb, 2023
在这篇论文中,我们提出了一种个性化的实时风险评分算法,基于病人的(时间性)实验室测试和生命体征提供及时和细致的临床状况评估,确保临床恶化的病人能够及时转入重症监护室,该风险评分系统通过从离线电子健康记录数据中学习一组潜在的患者亚型,并训练一组高斯过程 (GP) 专家,每个专家可以模拟与特定患者亚型相关的生理数据流,从而实现。
Oct, 2016