大模型发展路线图
本文综述了预训练大型多模态模型的背景、任务定义、挑战、优势以及验证方式,并重点讨论了数据、目标、网络结构、知识增强等方面。此外,文章还给出了模型参数和结果的可视化和分析,并指出了未来的可能研究方向。
Feb, 2023
通过对具有多模态能力的 LLM 和 MM-LLM 的当前状况进行广泛回顾,本文涵盖了 LLM 的历史发展、注意力机制在提升模型性能方面的作用,以及 Fine-tuning 和 prompt engineering 等模型调整技术。同时还分析了伦理考虑和挑战,并讨论了开源和专有模型在 AI 研究中的影响。通过这个综述,我们揭示了 MM-LLM 在各种应用中的转型潜力。
Mar, 2024
本篇综述论文全面分析了大型语言模型的架构及其分类、训练策略、训练数据集和性能评估,并讨论了未来的研究方向,最后总结了大型语言模型研究的重要发现和关键的架构和训练策略。
Jul, 2023
大规模语言模型(LLMs)在文本相关的业务流程管理任务中表现出与现有解决方案相当甚至更好的性能,这为未来的 BPM 研究和实际应用带来了重要的启示。
Jul, 2023
大型基础模型的资源挑战是一个重要问题,本调研综合分析了现有文献修复切片从模型架构到资源策略的多个方面,为理解当前方法和激发未来突破提供了全面的观点。
Jan, 2024
通过引入 Beyond the Imitation Game 基准测试(BIG-bench),我们评估了多种大小的语言模型在 204 个跨不同领域的任务上的表现,发现规模越大,其表现和校准也越好,但与人类专家相比还是很差,同时也发现在歧义上下文中情境偏见随规模增加而增加,但通过提示可以改善。
Jun, 2022
对于大型语言模型(LLMs)的研究,包括基本原理、应用领域以及训练过程,本综述论文对于上下文学习、多种微调方法以及参数使用效率优化等机制进行探讨,同时深入研究了如何通过创新的强化学习框架和融入人类反馈的新方法来更好地与人类偏好相统一的问题。还研究了将外部知识融入 LLMs 的新兴技术 —— 检索增强生成。对于 LLMs 的伦理问题,论文讨论了需谨慎且负责任的应用需求。最后,论文展望了未来的研究方向,提供了关于当今及未来 LLMs 领域中不断发展的全面且简明的概述,为人工智能领域的研究人员和实践者提供了有益的指南。
Apr, 2024