隐私保护上下文引导增强小型医学学习者
通过提示工程,大型语言模型(LLMs)展示了在上下文学习中的新兴能力。最近在大规模生成模型方面的进展进一步扩展了它们在实际语言应用中的使用。然而,在自然语言理解和问题回答方面,提高 LLMs 的泛化能力和准确性的关键挑战仍未得到充分探索。
Dec, 2023
通过在 EHR 笔记上下文中添加提示,我们设计了并验证了一系列实验,用于实现动态上下文下的生物医学语言模型内置知识库的任务。我们的实验表明,这些语言模型所具有的知识可以从 EHR 笔记的噪声知识中区分出正确的知识,这种区分能力也可以作为一个新的度量来评估模型所具有的知识量。
Aug, 2022
通过结合临床领域特定知识图谱和大语言模型,在临床自然语言处理中提出了一种创新、资源高效的方法 ClinGen,通过临床知识提取和上下文信息化的大语言模型指导数据生成,持续提升性能,对生成训练实例的多样性和真实数据分布进行有效调整。
Nov, 2023
预训练语言模型(PLMs)在解决各种自然语言处理(NLP)任务上展现出显著的熟练度。研究人员观察到这些模型的性能和规模之间存在直接关联。最近几年,这些模型的规模明显扩大,研究人员因此采用了大型语言模型(LLMs)这一术语来描述规模较大的 PLMs。增加的规模伴随着一种称为上下文学习(ICL)的特殊能力,它代表了一种专门的提示形式。这使得 LLMs 能够通过展示演示例子的方式在保持模型参数冻结的同时,为特定的下游任务提供利用。尽管有趣,但隐私问题成为其广泛使用的主要障碍。多个研究已经考察了与 ICL 和提示一般相关的隐私风险,并提出了缓解这些风险的技术。因此,有必要为社区整理这些缓解技术。本综述提供了 ICL 和提示一般过程中采用的隐私保护方法的系统概述。我们对该范式下的不同方法进行了回顾、分析和比较。此外,我们提供了可用于开发这些框架的资源的概要。最后,我们讨论了这些框架的局限性,并对需要进一步探索的有希望的领域进行了详细的研究。
Apr, 2024
通过结合医学领域知识,采用多层结构的提示方法实现零 / 少样本上下文学习,并探索用户与大型语言模型的两种交流方式对诊断准确性和风险因素的影响。结果表明,大型语言模型通过域知识和定制化沟通策略能够显著提高诊断流程的准确性。研究还强调了在大型语言模型应用中优化训练样本数量和交流方式以提高准确性并减少偏见的重要性。
May, 2024
通过与用户与搜索引擎的交互历史相关的上下文,我们提出了一种新颖且通用的方法,用于个性化输出,这对于理解用户当前的搜索背景以及他们历史上知道和关心的内容是必要的。我们验证了我们的方法在上下文查询建议的任务上优于几个其他 LLM 基准方法,生成了在上下文中更相关、个性化和有用的查询建议。
Nov, 2023
使用弱监督和微调大型语言模型(LLM)的方法,在几乎没有领域知识的情况下,能够在性能上显著优于传统的有限的标准数据的监督方法,利用基于提示的方法,LLM 生成弱标记数据来训练下游的 BERT 模型,然后将弱监督模型进一步在少量的标准数据上进行微调,通过评估发现该方法优于 out-of-the-box PubMedBERT 4.7% 至 47.9% 的 F1 得分。
Jun, 2024
该研究探讨了大规模语言模型在多模态健康预测中的应用,通过上下文信息和生理数据进行综合评估,并展示了 fine-tuned 模型在健康预测任务中的表现和对上下文增强策略的有效性。
Jan, 2024
通过提出 ConfAIde 基准测试,我们的实验结果表明即使在使用了隐私保护提示或思维链推理后,如 GPT-4 和 ChatGPT 这样的最先进模型仍然有 39% 和 57% 的概率在具体情境中泄露私人信息,这凸显了探索基于推理和心智理论的新型推理时隐私保护方法的迫切需要。
Oct, 2023
通过综述大型语言模型在医学领域中的应用和意义,揭示了它们在知识检索、研究支持、临床工作流自动化和诊断辅助等方面的效用,并探索了多模态语言模型以及自动化代理在医疗保健中的发展潜力。然而,为了有效地将这些模型整合到临床实践中,需要不断优化和进行伦理监管。
Nov, 2023