MedAdapter:大规模语言模型在医疗推理中的高效测试时适应
该研究探讨了将语义本体中的图谱知识整合到多语言大型语言模型中,通过适配器提高低资源语言在情感分析和命名实体识别中的性能,对八种低资源语言进行了实证评估,提供了适应低资源情景的语言模型优势的见解。
Jul, 2024
本文提出 LLMs-Adapters 框架,利用少量可调参数对小型 LLMs 进行 fine-tuning,实现对各种任务的支持;在六种数学推理数据集上的实验表明,将 adapter-based PEFT 应用于小型 LLMs(7B)可以取得与强大的 LLMs(175B)相似甚至更优秀的性能,旨在推进 adapter-based PEFT 的研究,为 LM 大规模的 fine-tuning 提供了有价值的工具和框架。
Apr, 2023
医疗报告生成需要自动创建连贯准确的医学图像描述。本研究基于最先进的视觉语言预训练和微调方法 BLIP-2,利用适配器调优和医学知识增强损失,显著提高了模型的准确性和连贯性。在 ImageCLEFmedical 2023 的数据集上验证,我们的模型取得了最佳的平均结果,优于几种最先进的方法。ROUGE 和 CIDEr 的显著改进突显了我们方法的有效性,为快速适应视觉语言基础模型以应对数据匮乏的挑战带来了有希望的结果。
Dec, 2023
本文介绍了一种使用轻量级适配器模块将结构化的生物医学知识注入到预训练语言模型中的方法,并对该方法在三个下游任务中的性能进行了测试和分析。
Dec, 2023
本研究通过将预训练的通用大型语言模型精细调整为医学领域专家,并结合多种优化方法,包括注入通用医学知识、医学领域指导微调和特定医学任务适应性调整,成功提升了在医学领域的推理和应答能力。
Dec, 2023
本文旨在探究两种途径从英语语料库中翻译生成的语言格式数据和本地化的语料库数据来建立生物医学语言模型,以应用在医疗领域中以提高患者护理和管理(本研究以意大利为例)。通过实验发现,在相对较小的语料库情况下,高质量数据的合并可以提高模型性能,但数据量的限制更为严格;本文的研究成果有望为意大利医院和学术界提供发展机遇,并为如何构建通用于其他不太具备资源的语言和不同领域设置的生物医学语言模型提供有价值的见解。
Dec, 2022
通过引入 Multiway-Adapter 框架和 'Alignment Enhancer' 来深化多模态对齐,我们提出了一种高效的适应路径,使得大型多模态模型具备高度的可迁移性,同时实现了 57% 的微调时间缩减,并在零样本图像 - 文本检索任务中表现出优异的性能。
Sep, 2023
提出了一种基于大型语言模型(LLMs)的多学科协作(MC)框架,通过角色扮演的 LLM 代理参与协作多轮讨论,增强 LLM 的能力和推理能力,用于挖掘并利用 LLMs 中的医学专业知识和扩展其推理能力,同时在人类评估中找出常见错误并进行消融研究。
Nov, 2023
本文研究了使用适配器在软件工程中进行知识转移的方法,对 C/C++、Python 和 Java 三种编程语言中的 cloze 测试和代码克隆检测等任务进行了广泛的实验,并将该方法与基准进行了比较,在参数数量、内存使用和推理时间等方面更加高效。
Apr, 2022
通过使用多个 70B 参数的大型语言模型以及日本医学问答数据集进行指导调整,我们首次展示了指导调整显著提高了日本医学领域的语言模型在解决日本医学许可考试方面的准确性,超过了 50%。特别是,与英文为中心的模型相比,以日语为中心的模型在通过指导调整方面取得了更大的改进,这凸显了我们地方语言的持续预训练和标记工具的调整的重要性。我们还检验了两种略有不同的提示格式,结果显示有可观的性能改进。
Jun, 2024