超越微调:从模型中学习的调查
本文旨在探讨基础模型(FMs)在数据清洗和集成等传统数据任务中的表现,研究发现大型 FM 模型可以在这些任务中取得 SoTA 表现,并针对这一发现提出了相关挑战和机遇。
May, 2022
本文提出了 Tabular Foundation Models (TabFMs),通过在广泛的表格数据集上使用预训练的大型语言模型 (LLM) 并进行微调,实现了对表格数据具有深刻理解和普适能力的目标。TabFMs 在指导性任务(如零样本和上下文推理)方面具有显著优势,并且在某些情况下甚至超越了著名但神秘的闭源 LLMs,如 GPT-4。此外,当仅有有限的数据进行微调时,我们的模型表现出了出色的效率和竞争性表现。最后,我们也探讨了 TabFM 的局限性和潜在机会,旨在激发和促进未来开发更强大的 TabFMs 的研究。
Oct, 2023
我们引入了语言反馈模型(LFMs),用于在指令跟随的模仿学习中识别理想行为 - 有助于实现指令中所述任务的行为。通过使用 LFMs 识别理想行为进行模仿学习,我们改善了在三个不同的语言基础环境(Touchdown、ScienceWorld 和 ALFWorld)上强大的行为克隆基线的任务完成率。同时,与使用 LLMs 直接预测动作相比,LFMs 在控制 LLMs 输出令牌数量的情况下取得了更好的效果。LFMs 具有泛化到未见环境的能力,通过一轮适应提高了 3.5-12.0% 的任务完成率。最后,LFM 可以进行修改以提供具有人类可解释性的反馈,而不会损失性能,从而允许人类验证模仿学习中的理想行为。
Feb, 2024
使用联邦迁移学习来接地基础模型是当前学术界和工业界重要的研究方向,该研究论文介绍了一个联邦迁移学习框架,对最新的研究工作进行了详细分类和综述,提供了高效和隐私保护技术,并探讨了联邦迁移学习未来的机会和研究方向。
Nov, 2023
应用人工智能和深度学习在智能制造领域仍面临挑战,大规模基础模型(LSFMs)能够解决深度学习面临的挑战,并显示出强大的泛化能力,在智能制造中呈现出广泛应用的潜力。
Dec, 2023
该论文介绍了一种名为自然语言反馈微调 LLM(LaFFi)的替代方法,通过要求 LLM 直接预测从评注者那里得到的反馈,显著提高了领域内问答任务的准确性,为自然语言反馈在 SFT LLMs 领域的应用提供了一个有前途的方向。
Dec, 2023
通过硬件为中心的方法,本研究探讨了如何将大型语言模型 (LLMs) 应用于现代边缘计算系统,并使用联邦学习 (FL) 对 FLAN-T5 模型家族进行微调,以进行文本摘要任务。通过与数据中心 GPU 的比较,我们评估了边缘计算系统的当前能力以及它们在 LLM FL 工作负载方面的潜力,并展示了在边缘端实现更大计算效率的潜力与下一步的发展方向。
Oct, 2023