利用大型语言模型自动演化工业数据中心研发周期
本篇论文提出了以数据为中心的人工智能研究视角,着重于大型语言模型。我们首先观察到在 LLM 的发展阶段(如预训练和微调)和推理阶段(如上下文学习)中,数据起着重要作用,但却在研究社区中受到了不对称的关注。我们确定了四个以数据为中心的具体情景,涵盖数据中心的基准和数据策划、数据属性、知识传递以及推理上下文化。在每个情景中,我们强调了数据的重要性,突出了有前景的研究方向,并阐述了对研究社区和整个社会可能产生的影响。例如,我们提倡为 LLM 的规模和复杂性量身定制一套以数据为中心的基准。这些基准可用于开发新的数据策划方法、记录研究工作和结果,有助于促进人工智能和 LLM 研究的开放性和透明度。
Jun, 2024
通过数据中心的方法,我们提出了一种能够更好地处理金融任务的金融 LLM(FLLM)模型,通过多任务提示优化来对数据进行预处理和预理解,并通过推断增强推理(AAR)自动生成训练数据,实验结果表明,我们的数据中心 FLLM 模型显著优于基于原始文本的金融 LLMs,在金融分析和解释任务上达到了最新水平,我们还开源了一个新的金融分析和解释基准,这种方法为解锁 LLMs 在复杂现实领域的潜力提供了希望。
Oct, 2023
通过文献综述和第一手实验,本文研究了大型语言模型(LLMs)的潜力。尽管 LLMs 具有成本效益和高效性等优点,但也存在着诸如提示调优、偏见和主观性等挑战。该研究通过利用 LLMs 进行定性分析的实验提供了新的见解,强调了成功和限制。此外,本文还讨论了缓解挑战的策略,如优化提示技术和利用人类专业知识。我们的工作旨在将 LLMs 有机地融入人机交互数据工作,并积极促进其负责任的应用,以此回应关于 LLMs 在研究中负责任应用的持续对话。
Apr, 2024
大型语言模型 (LLMs) 能够在不同学科领域发挥作用和限制,加强科学研究,例如通过总结大量出版物加速文献回顾,通过自动语法纠正提升代码开发,和优化科学写作过程。然而,LLMs 面临挑战,如依赖庞大且有时偏颇的数据集,以及出于使用而引发的潜在伦理困境。我们对 LLMs 在不同领域的影响进行重要讨论,从自然科学中帮助模拟复杂生物序列,到社会科学中解析大规模的定性数据。最后,我们提供一种细致的观点,认为 LLMs 既是科学进步的福音,也是其边界。
Nov, 2023
该研究调查了代码生成在 “特定领域” 应用中的有效方法,包括使用大型语言模型(LLMs)进行数据分割和更新,以及通过提示调整刺激 LLMs 更深入思考。我们以一款真实的公司产品为例,提供了用户手册、API 文档和其他数据。本文所讨论的思想有助于将这些数据分割并转换为语义向量,以更好地反映它们的真实定位。随后,将用户需求转换为向量以检索最相关的内容,在简单到中等复杂的任务中通过各种提示技术实现约 70% 的准确率。本文首次从这个角度增强了特定领域的代码生成效果。此外,我们还通过使用 llama2 进行基于微调的有限脚本生成实验,测试其在专业领域代码生成中的有效性。这是一个具有挑战性和有希望的领域,一旦实现,它不仅将在多个行业中取得突破,而且还能够使 LLMs 有效地理解和学习任何新知识。
Nov, 2023
本文提出了一种统一的数据创建流程,只需一个格式示例,适用于包括传统上问题较多的任务在内的广泛范围,通过实验证明使用指令跟随型大型语言模型创建的数据比使用人工标注的数据在分布外评估上表现更好(高达 17.5%),同时在分布内任务上保持可比较的性能,这些结果对于在现实世界中部署的自然语言处理系统的稳健性具有重要意义。
Oct, 2023
本文旨在探讨大型语言模型(LLMs)在工业环境中的障碍和机遇,并基于一组行业从业者的调查和 68 篇行业论文的研究,提出四个研究问题以得出有意义的结论。
Feb, 2024
本文提出了一种结合基于知识的 LLMs 因果分析和数据驱动因果结构学习的新框架,以构建因果结构学习的新范式,并介绍了一套广泛的提示组,以从给定变量中提取因果图,并评估 LLM 先前因果对从数据中恢复因果结构的影响
Jun, 2023