使用迭代上下文学习获取大型语言模型先验
整合专家提供的背景知识可以改善观测数据的因果结构发现,并且由于对比人工专家而言查询它们的成本较低,最近开始将大型语言模型(LLM)视为提供先验信息的来源。本研究首先提出了一组用于独立于下游算法评估 LLM 判断因果图发现的度量标准。其次,我们系统地研究了一组提示设计,使模型能够指定关于因果图结构的先验。最后,我们提出了一种将 LLM 先验整合到图发现算法中的通用方法,发现它们在常识基准和特别是用于评估边缘方向性时有助于提高性能。我们的研究突显了在该问题空间中使用 LLM 的潜力和局限性。
May, 2024
我们开发了一种新技术来减轻强偏好问题,通过将原始指令集产生一个弱化版本的提示并从弱化的提示中推断模型如何继续执行一个假设加强的指令集,我们将语言模型概念化为混合模型,并对 GPT-2、GPT-3、Llama 2 和 Mistral 等模型进行了应用,在四个任务中找到了 41/44 的改进,在所有 44 个组合中,完成任务比例的中值增加了 40%。
Jan, 2024
本研究探索了一个迭代提示框架,用于让预训练语言模型具有多步推理能力,我们提出了一种基于上下文的迭代提示器,可以动态地合成提示,以捕捉不同推理步骤之间的变化。实验证明,该方法在多步推理方面具有很好的效果。
Mar, 2022
利用大语言模型在现代教育领域创新的机会,通过研究提问型大语言模型、语法错误解释和人力资源面试评估,揭示了大语言模型在改变教育实践中的潜力和限制。
May, 2024
通过引入语言模型先验(LMPriors),该研究证明了利用元数据来鼓励下游模型与 LM 的常识推理保持一致可以提高模型性能,并在多个任务中表现出良好的性能,如特征选择、因果推断和安全强化学习。
Oct, 2022
本文从贝叶斯的角度出发,将大型语言模型视作主题模型,提出了一种从标注数据中选择最佳示范的算法,并在实际数据集中证明相对于随机选择基线,平均有 12.5% 的显著改进。研究表明,大型语言模型从示范中隐式地推断出潜在的概念变量。
Jan, 2023
本文介绍了一种新颖的贝叶斯提示方法,通过使用一个语言大模型(LLMs)中的一个模糊概率图模型(PGM)来实现无需训练的贝叶斯推理。我们的模型在多个组合推理任务中取得了良好的效果,有效提升了置信度的引发和文本生成质量,显示出在模拟不确定性方面提高人工智能语言理解系统的潜力。
Jun, 2024
该研究将大型语言模型(LLMs)如 GPT-4 与传统自然语言处理(NLP)任务相结合,利用思维链(CoT)提示技术从 GPT-4 中提取知识,并应用于改进较小模型 BERT 在命名实体识别(NER)任务中的效率和效果。通过采用两阶段训练过程,该方法在预训练阶段使用 GPT-4 标注数据,并结合蒸馏和原始人标注数据来完善模型。结果表明,我们的混合训练策略明显优于仅使用人工标注的模型,达到了更高的 F1 得分,并展示了在资源有限或封闭网络环境下的成本效益解决方案。研究还讨论了遇到的挑战,如 LLM 输出的可变性和偏向幻觉,提出了改进提示设计和注释选择的未来工作方向。我们的发现显示出 LLM 洞察力与传统 NLP 技术之间的有希望的协同作用,为更易于接近和强大的 NLP 应用铺平了道路。
Feb, 2024
通过提示工程,大型语言模型(LLMs)展示了在上下文学习中的新兴能力。最近在大规模生成模型方面的进展进一步扩展了它们在实际语言应用中的使用。然而,在自然语言理解和问题回答方面,提高 LLMs 的泛化能力和准确性的关键挑战仍未得到充分探索。
Dec, 2023