大语言模型时代的 AutoML:现有挑战、未来机遇和风险
使用大型语言模型 (LLMs) 驱动的代码生成在最近变得越来越流行。然而,自动生成机器学习 (ML) 任务的代码仍然面临着重大挑战。本文通过结合 LLMs 和自动化机器学习 (autoML) 来探索 ML 程序合成的极限,旨在完全自动化从数据准备到建模和后处理的整个 ML 工作流程的代码生成过程,只使用 ML 任务的文本描述。
May, 2024
大型语言模型(LLMs)正在改变人工智能,使得自主代理能够在不同领域执行多样化任务。这些代理具备类似人类的文本理解和生成能力,有望在从客户服务到医疗保健等各个领域引发革命。然而,它们面临着诸如多模态、人类价值取向、幻觉和评估等挑战。推动、推理、工具利用和上下文学习等技术正在被探索,以增强它们的功能。像 AgentBench、WebArena 和 ToolLLM 这样的评估平台为在复杂场景中评估这些代理提供了强大的方法。这些进展正在引领更加有韧性和能力的自主代理的发展,预计它们将成为我们数字生活中不可或缺的一部分,协助我们完成从邮件回复到疾病诊断等任务。拥有 LLMs 带头的人工智能的未来充满了希望。
Apr, 2024
本文介绍了如何将大型语言模型 LLMS 应用于法律领域,对应用于法律任务的不同方法进行了讨论,并探讨了使用 LLMS 所引发的隐私、偏见等法律问题,提出了数据资源领域学习上下文中的一些潜在方向。希望为当前 LLMS 的法律应用现状提供概述,同时强调其集成的潜在益处和挑战。
Mar, 2023
人工智能和大型语言模型的进步正在给法律领域的自然语言处理任务带来深刻的转变。大型语言模型在法律部门展示出越来越多独特的优势和各种挑战。本调查研究了大型语言模型与法律系统之间的协同作用,例如在法律文本理解、案例检索和分析等任务中的应用。此外,该调查还突出了大型语言模型在法律领域面临的关键挑战,包括偏见、可解释性和道德考虑,以及研究人员如何解决这些问题。调查展示了针对不同法律体系量身定制的最新进展,以及用于各种语言的大型语言模型微调的法律数据集。此外,它提出了未来研究和发展的方向。
Apr, 2024
我们提出了一种新颖的平台,用于评估大型语言模型(LLMs)自主撰写和评论跨科学、人文、教育和法律等各个学科的调研论文的能力。这个框架中,人工智能系统通过模拟同行评审机制进行操作,类似于传统学术期刊,人类组织者担任编辑监督职责。在这个框架内,我们为 2023 年 AutoML 会议组织了一次竞赛。参赛者的任务是根据指定提示撰写独立的文章,并对其进行评估。评估标准包括清晰度、参考文献适当性、责任性和内容的实质价值。本文介绍了竞赛的设计,包括实施基线提交和评估方法。
Oct, 2023
通过文献综述和第一手实验,本文研究了大型语言模型(LLMs)的潜力。尽管 LLMs 具有成本效益和高效性等优点,但也存在着诸如提示调优、偏见和主观性等挑战。该研究通过利用 LLMs 进行定性分析的实验提供了新的见解,强调了成功和限制。此外,本文还讨论了缓解挑战的策略,如优化提示技术和利用人类专业知识。我们的工作旨在将 LLMs 有机地融入人机交互数据工作,并积极促进其负责任的应用,以此回应关于 LLMs 在研究中负责任应用的持续对话。
Apr, 2024
本文旨在探讨大型语言模型(LLMs)在工业环境中的障碍和机遇,并基于一组行业从业者的调查和 68 篇行业论文的研究,提出四个研究问题以得出有意义的结论。
Feb, 2024
通过对基于大语言模型的自主代理的综合调查,本文提出了一个统一框架来概括以往研究,并总结了在社会科学、自然科学和工程领域中应用大语言模型的人工智能代理的各种应用及评估策略。同时,我们还讨论了该领域的挑战和未来方向。
Aug, 2023
通过回顾现有工作,我们按类别介绍了应用语言模型于网络领域的突出成果,并详细解释它们在工作流程的不同阶段的操作方式。此外,我们深入探讨了遇到的挑战,讨论了潜在解决方案,并勾勒了未来的研究前景。我们希望这份调查能为研究人员和实践者提供洞见,推动该跨学科研究领域的发展。
Apr, 2024