为医疗自然语言处理设计指导原则:以孕产妇保健为案例研究
大型语言模型在医疗领域的利用引发了劲头和担忧,本文概述了目前开发的大型语言模型在医疗保健方面的能力,并阐明它们的发展过程,旨在提供从传统预训练语言模型(PLMs)到大型语言模型(LLMs)的发展路线图的概览。总的来说,我们认为正在进行一次重大的范式转变,从 PLMs 过渡到 LLMs,这包括从辨别式人工智能方法向生成式人工智能方法的转变,以及从以模型为中心的方法论向以数据为中心的方法论的转变。
Oct, 2023
通过综述大型语言模型在医学领域中的应用和意义,揭示了它们在知识检索、研究支持、临床工作流自动化和诊断辅助等方面的效用,并探索了多模态语言模型以及自动化代理在医疗保健中的发展潜力。然而,为了有效地将这些模型整合到临床实践中,需要不断优化和进行伦理监管。
Nov, 2023
数字卫生工具与大型语言模型(LLMs)结合可在临床环境中提供新颖的接口,增强数字医疗工具的实用性和实际影响,解决了使用 LLMs 时出现的问题,如幻觉,从而提高心血管疾病和糖尿病风险预测的效果。
Oct, 2023
大型语言模型在医疗保健领域的部署引发了热情和忧虑,本综述论文探讨了针对医疗保健应用设计的现有大型语言模型的功能,从传统的预训练语言模型到目前的医疗保健领域的大型语言模型发展轨迹,特别关注临床语言理解任务的潜力以及性能评估、挑战和限制。
Dec, 2023
通过四个案例研究展示了大型语言模型在医疗保健中的应用,包括分析 Reddit 上的心理健康讨论、为老年人进行认知参与开发个性化聊天机器人、总结医疗对话数据集和设计 AI 助力病患参与系统。同时讨论了在医疗保健环境中引入大型语言模型的道德考虑、最佳实践和指南。
Jun, 2024
论文探讨了临床医师对 LLMs 的信任与数据来源从人生成为 AI 生成内容的演变关系,并随之对 LLMs 的准确性和临床医师能力的影响。关注的其中一个主要问题是随着 LLMs 对其输出越来越依赖于学习,可能导致输出质量的降低和临床医师技能的减弱,因为与基本诊断过程的接触减少。虽然目前处于理论阶段,但这种反馈循环对于深入整合 LLMs 于医疗保健领域提出了重大挑战,强调了积极对话和战略措施以确保 LLM 技术的安全有效使用的必要性。此外,我们深入探讨了 LLMs 自我参考学习循环和医疗保健专业人员能力下降的潜在风险。LLMs 在回音室内运行的风险,其中 AI 生成的内容反馈到学习算法中,威胁到数据池的多样性和质量,可能固化偏见并降低 LLMs 的效力。同时,对 LLMs 在常规或关键任务方面的依赖可能导致医疗保健提供者的诊断和思考能力下降,特别影响未来专业人员的培训和发展。
Mar, 2024
通过对八种流行的大型语言模型在三个临床病例描述数据集上进行严格评估和分析,我们发现这些模型在受保护群体之间存在各种不同程度的社会偏差,而大小模型并不一定比通用模型更具偏见,经过设计决策的提示方式对社会偏差也有影响,研究呼吁对在临床决策支持应用中使用的大型语言模型进行进一步评估、审查和改进。
Apr, 2024
大语言模型在精神卫生保健中展示了广泛的应用,涵盖诊断、患者支持等方面。然而,数据可用性、精确处理心理状态和有效评估方法等问题,导致了临床适用性和伦理考虑方面的差距存在,要推动精神卫生保健中大语言模型的进一步发展,需要依靠多学科协作、数据集开发、技术精进和伦理融合等方面的全面努力。
Jan, 2024
本研究探讨了人工智能领域中大型语言模型(LLMs)的伦理问题。它讨论了 LLMs 和其他人工智能系统所面临的常见伦理挑战,如隐私和公平,以及 LLMs 特有的伦理挑战,如幻觉、可验证的问责和解码审查复杂性。该研究强调了解决这些复杂性的必要性,以确保问责制、减少偏见并增强 LLMs 在塑造信息传播方面所扮演的重要角色的透明度。它提出了缓解策略和 LLM 伦理的未来发展方向,主张跨学科合作。该研究建议针对特定领域制定伦理框架,并根据不同环境调整动态审计系统。这一路线图旨在引导负责任地开发和整合 LLMs,设想一个以伦理考虑为基础的人工智能进步的未来社会。
May, 2024