FootGPT:基于简单环境的大型语言模型开发实验
该研究通过将文本输入转换为包含任务描述的填空问题,并结合梯度优化和利用未标记数据,成功地创造了小型语言模型,达到了与 GPT-3 相似的性能,为小型语言模型的成功应用提供了关键因素。
Sep, 2020
在大规模预训练语言模型上进行 fine-tuning 可以显著提高模型在 NLP 任务中的任务值线表现,同时还证明了 scaling up 语言模型可以大大改善任务独立的 few-shot learning 表现,并探讨了 GPT-3 模型优势和局限性。
May, 2020
该研究聚焦于用于芬兰语的大型语言模型(LLMs)的创建和评估,通过从各种来源收集数据并进行预训练,综合其他语言模型的方法,在芬兰语领域取得了显著进展,并对模型的质量进行了评估,包括毒性和偏见。
Nov, 2023
在自然语言处理(NLP)领域中,基于 GPT 模型在金融领域的潜力日益显现。然而,将这些模型与金融数据集结合存在一些挑战,特别是在确定它们的熟练程度和相关性方面。本文介绍了一种独特的方法,该方法以指令调整范式为基础,专门适用于金融环境中的开源大型语言模型。通过这种方法,我们充分利用开源模型的互操作性,确保了无缝透明的集成。我们首先解释了指令调整范式,强调其对即时集成的有效性。本文提出了一个基准测试方案,用于端到端的训练和测试,采用一种经济有效的进展方式。首先,我们评估了基本能力和基本任务,例如命名实体识别(NER)和情感分析,以增强特性。接下来,我们深入研究了一个全面的模型,通过汇集所有指令调整来执行多任务操作,以检验其多样性。最后,我们通过标记未见任务并结合新颖的数据集探索了零样本能力,以了解在未知领域的适应性。这样的范式巩固了开放性和可重现性的原则,为未来在开源金融大型语言模型(FinLLMs)中的研究奠定了坚实的基础。
Oct, 2023
本文介绍了两种自回归 GPT 类模型,使用维基百科和 Colossal Clean Crawled Corpus 训练了 60 种语言、25 种语言系的搜索,展示了多种任务上的表现,包括分类、生成、序列标记和知识探测,在多语种任务上有着与 Facebook 最近发布的 XGLM 模型相媲美的表现。
Apr, 2022
大型语言模型(LLMs)通常在广泛的、时间不加区分的文本语料库上进行训练,反映了缺乏带有时间元数据的数据集。本文提出了一种新的方法:一系列时间点的 LLMs,称为 Time Machine GPT(TiMaGPT),专门设计为非预测性的。这确保它们对未来的事实信息和语言变化保持不知情,这种策略对于理解语言的演化以及在动态环境下应用模型(如时间序列预测)尤为重要。我们提供模型和训练数据集的访问权限。
Apr, 2024
通过评估多个基准生成模型在教育对话中提供信息和帮助学生的能力,本研究旨在模拟一个有知识的老师的角色,并发现 GPT-4 在教师 - 学生聊天记录子集上的优越性,测量标准是 BERTScore 和 DialogRPT,同时注意到采样、代表性和对话完整性等数据集特征对微调模型的一般化能力造成了显著挑战,最终强调了对这些生成模型进行评估的需求,其中评估标准不仅依赖于对话连贯性和匹配的语言建模分布,而且还依赖于模型展示教学技巧的能力。
Jul, 2023
通过训练不同大小的 GPT-like 语言模型并在挑战任务(BLiMP,GLUE,MSGS)和阅读时预测任务上进行评估,我们发现 LM 大小与所有三个挑战任务的性能呈正相关,而在使用 LM 意外性作为预测变量的线性混合效应模型的阅读时间拟合上,发现 LM 大小呈负相关。这表明,模拟处理的努力和语言能力可能需要与在发展上合理的语料库上训练 GPT-like 语言模型有所不同的方法。
Nov, 2023
本文介绍了 BloombergGPT, 这是一个在大量金融数据上训练得到的具有 500 亿参数的语言模型。通过使用混合数据集进行训练,我们得到的模型不仅在金融任务上表现出色,还在普遍的 LLM 基准测试上得到了不错的表现,同时也解释了模型构建、训练过程和评估方法。
Mar, 2023
本文介绍了一种基于数据驱动和透明资源的开源金融领域大型语言模型(FinGPT),通过自动数据处理管道和低秩度量适应技术,为研究人员和从业者提供访问、透明的资源,并展示了机器人顾问、算法交易和低代码开发等潜在应用。
Jun, 2023