通过从头开始训练领域知识来匹配领域专家
通过大规模语言模型(LLMs)来预测神经科学实验结果,发现 LLMs 在预测实验结果方面超过了专家,并且经过优化的神经科学文献模型 BrainGPT 表现更好,这预示着人类与 LLMs 共同合作进行科学发现的未来。
Mar, 2024
基于四个不同领域的实验结果,本研究发现,小模型在专家注释的情况下能够以较少标注数据的情况下胜过 GPT-3.5,并且与 GPT-4 在性能上达到或超过其,尽管小模型的规模只有后者的百分之一。因此,我们认为在真实世界的应用中,大型语言模型的预测结果可以作为预热方法,并且通过领域专家的数据注释,实现任务的成功。
Nov, 2023
专门领域的预训练和混合领域的预训练是比一般预训练更高效的专用语言模型方法,本文将研究与医学领域相关的专门领域预训练,并比较专用语言模型与通用语言模型的基准结果。
Jul, 2024
本文研究了如何利用特定领域的知识以协助适应自然语言处理领域中的商业实例,以保险业的问答任务为例,设计出一个基于 LLMs 的新模型,通过利用保险政策手册中的特定领域知识,可以协助理解保险新概念,初步结果表明来自政策手册的知识提高了 GPT-3.5 在可靠性方面的推论能力。
May, 2023
MindLLM 是一系列双语轻量级大型语言模型,通过从头开始训练模型以减轻培训和部署大型语言模型的负担并解决资源不足问题。该论文提供了大模型开发过程中的经验,并介绍了适用于较小模型的创新指令调整框架,同时探索了 MindLLM 在法律和金融等特定垂直领域的应用。
Oct, 2023
本文探讨了使用神经语言模型对大脑活动进行研究的方法,主要研究了测试损失、训练语料库和模型架构对捕捉大脑活动的影响,并提出了未来研究的良好实践建议。
Jul, 2022
本文探讨了预训练大型语言模型(LLMs)的能力,以及它们在知识跟踪、智能辅导系统领域的应用,研究了两种使用 LLMs 进行知识跟踪的方法,并对其在实际数据集上的性能进行了评估,结果表明 LLMs 能够模拟复杂的学习轨迹,为将 LLMs 应用于教育环境开辟了新的途径。
Feb, 2024
通过实验研究表明相对较小的专业临床文本语言模型可在解析和理解电子健康记录方面显著优于大规模的综合性语言模型并且通过进行临床标记的预训练还可以实现更小、 更高效的专业化临床模型。
Feb, 2023
通过对计算机科学 - NLP 领域的 20 个选定主题进行研究和评估,本文证明了 GPT-4 相对于 GPT-3.5 在产生简明调查文章方面的成功,并揭示了 LLM 在特定领域应用中存在的问题和短板。
Aug, 2023
在大规模预训练语言模型上进行 fine-tuning 可以显著提高模型在 NLP 任务中的任务值线表现,同时还证明了 scaling up 语言模型可以大大改善任务独立的 few-shot learning 表现,并探讨了 GPT-3 模型优势和局限性。
May, 2020