LLaMA-Reg: 使用 LLaMA 2 进行非监督式医学图像配准
本论文介绍了一种将大型语言模型(LLMs)的语言推理能力与本地训练的优势相结合的方法,以解决复杂的领域特定任务。通过从病理报告中提取结构化病情编码,作者演示了他们的方法。研究结果表明,基于 LLaMA 的模型在所有评估指标上明显优于 BERT 型模型,尤其在大型数据集上表现出色,为处理复杂的多标签任务提供了可能性。这项工作提出了一种有效的方法,利用 LLMs 在易于获得的硬件上执行领域特定任务,在需要复杂数据提取和分类的医学领域具有潜在应用。
Aug, 2023
该研究揭示了残差型大型语言模型在生物医学图像任务中作为编码器的意外有效性,这在传统上与语言或文本数据无关。通过利用预训练的大型语言模型中的冻结变压器块作为创新编码器层,该方法与现有方法学不同,可以直接处理视觉标记。该研究发现,这些大型语言模型能够提升生物医学图像应用的性能,包括 2D 和 3D 的视觉分类任务,作为即插即用的增强器。更有趣的是,该提出的框架在 MedMNIST-2D 和 3D 的大规模标准数据集上取得了卓越的性能,刷新了最新的技术结果。通过这项工作,我们的目标是在生物医学图像领域开拓大型语言模型的应用新途径,并丰富对其在这一专业领域的潜力的认识。
Mar, 2024
这项研究介绍了 Me LLaMA,这是一个医学领域的大型语言模型(LLM)家族,包括基础模型 Me LLaMA 13/70B 和增强聊天版本 Me LLaMA 13/70B-chat。通过在大型医学数据上进行持续预训练和指导调整,Me LLaMA 模型在医学任务上表现优于其他医学 LLMs,适用于医学人工智能应用。
Feb, 2024
该研究提出了 ViLaM,一个统一的视觉 - 语言转换模型,通过集成基于大型语言模型的指令调整,能够在包括语言和视觉的一系列任务中最佳利用大型预训练语言模型的知识和推理能力,从而在医学图像分析等复杂视觉任务中取得了非凡的表现,并展示了其令人印象深刻的零样本学习能力,表明 ViLaM 在医学领域具有潜在的未来应用。
Nov, 2023
该论文介绍了一种利用预训练的大型语言模型作为通用临床多任务解码器的新范例,用于管理和适应多样化的临床任务及新任务的挑战,并验证了该框架在数百个任务上的鲁棒性,表现出与传统多任务学习和单任务学习方法相当的性能,对新任务具有出色的零样本表现和很强的数据效率,为临床应用中的各种新任务提供了统一的解决方案。
Jun, 2024
介绍了 PMC-LLaMA, 一种在 4.8 百万篇生物医学论文上 fine-tuning 得到的语言模型,用于注入医学知识,提高在医学领域的性能,经过初步试验后在生物医学数据集上表现出更好的理解生物医学特定概念,在 QA 基准上表现出高性能。
Apr, 2023
提出了一种新颖的方法 LLaRA(LLM 适应于密集检索),它作为 LLM 的事后适应工具,用于密集检索应用。LLaRA 包括两个预处理任务:EBAE (基于嵌入的自编码) 和 EBAR (基于嵌入的自回归),其中来自 LLM 的文本嵌入用于重建输入句子的标记并预测下一句的标记。LLaRA 简单、轻量且高效,应用于 LLMaMA-2-7B(基础)模型,在维基百科语料库上大大提升了模型对各种密集检索基准(如 MSMARCO 和 BEIR)的微调性能。
Dec, 2023
本文提出了一种基于学习的算法,用于变形、两两匹配的三维医学图像注册,通过使用卷积神经网络(CNN)模型并利用一个空间变换层,从而实现快速计算新的扫描成像时的配准场,且无需监督信息。我们可以在不破坏匹配场平滑性的前提下,底层地在一张图像中重构另一张图像,并在实践中将其速度提高数个数量级以上,从而有望显著加速医学图像分析和处理管道的速度,同时促进学习医学图像配准及其应用的新方向。
Feb, 2018
本文研究了如何在持续训练过程中注入领域知识以及如何设计正确的监督微调任务来帮助模型解决实际问题,在加入检索模块并提取相关文献的情况下,我们的模型可以更可靠地生成答案。
May, 2023