Nov, 2023

PEFT-MedAware: 医疗意识的大型语言模型

TL;DR利用参数高效微调(PEFT)技术,本研究提出了一种专用的 PEFT-MedAware 模型,使用 16,407 个医学问答对的特定数据对 Falcon-1b 大型语言模型进行优化,仅利用其 0.44% 的可训练参数,提高计算效率。该模型通过数据预处理和 PEFT 来优化性能,并结合 BitsAndBytesConfig 进行高效的 Transformer 训练。结果表明,该模型在资源有限的环境下,在特定领域的医学问答任务中具有更高的准确性,能够胜过其他语言模型,展示了 PEFT 在医疗 AI 中的高效性和专业能力。建议通过扩展数据集、使用更大的模型和引入反馈机制来进一步改进,以保持医疗相关性。所提出的模型和数据仅供研究目的使用。