Green Runner:用于从模型仓库中有效地选择模型的工具
通过大语言模型的推理能力,本研究提出了一种新颖的工具 oolname,可以基于自然语言提供的应用场景自动选择和评估模型,并通过将问题描述中的约束和权衡因素整合到模型选择过程中来实现资源高效的实验引擎。初步评估结果表明,与临时评估和蛮力方法相比, oolname 是高效和准确的。这项工作是朝着能帮助减少对具有机器学习功能的软件日益增长需求所引起的环境影响的能源高效工具迈出的一步。
Jan, 2024
本文系统地回顾了 Green deep learning 技术的发展,将这些方法分类为紧凑网络、节能训练策略、节能推理方法和高效数据使用四个类别,讨论了已经实现的进展和未解决的挑战。
Nov, 2021
利用大型语言模型 (LLMs) 管理结构化数据并增强数据科学流程的兴趣日益增长。尽管具有潜在的好处,但其整合引发了对可靠性和决策方法的重要问题,强调了模型选择过程中包括数据性质、问题类型、性能指标、计算资源、可解释性与准确性、对数据的假设以及伦理考虑等多种因素的重要性。我们的目标是阐明和表达 GPT-4 模型选择推荐背后的因素和假设。我们采用变异性模型描述这些因素,并使用玩具数据集评估模型和已确定的启发式方法的实施。通过将这些结果与其他平台的启发式方法进行对比,我们的目的是确定 GPT-4 方法的有效性和独特性。本研究致力于推进我们对人工智能决策过程的理解,特别是在数据科学中的模型选择领域。我们的努力旨在创建更加透明和可理解的人工智能系统,为数据科学实践贡献更负责任和高效的方法。
Nov, 2023
Green Tsetlin 是一个易于使用的 Tsetlin Machine 框架,旨在降低复杂性并提供一个适用于经验丰富的从业者和初学者的可生产的 TM 实现。
May, 2024
本研究提出了一种基于双语词典的能效框架 GreenPLM,将一种语言模型直接翻译到其他语言,以促进 NLP 研究中所有语言使用者的机会均等和减少能源消耗。18 种语言的验证结果表明,该框架相较其他有高成本的启发式算法的性能优越,并且在低计算成本下表现良好。
Nov, 2022
该研究通过将文本输入转换为包含任务描述的填空问题,并结合梯度优化和利用未标记数据,成功地创造了小型语言模型,达到了与 GPT-3 相似的性能,为小型语言模型的成功应用提供了关键因素。
Sep, 2020
通过分析预先训练的深度学习模型的元数据,并捕捉模型和数据集之间的内在关系,研究人员提出了一种名为 TransferGraph 的新框架,将模型选择问题重新定义为图学习问题,并在 16 个真实数据集上进行了广泛实验,发现相较于现有方法,TransferGraph 在预测性能和实际微调结果之间的相关性上有 32% 的提升。
Apr, 2024
AutoML-GPT 框架结合了多种工具和库,通过对话界面,用户可以指定需求和约束条件,实现数据预处理、特征工程和模型选择等操作,从而显著减少机器学习任务所需的时间和工作量。它能充分利用大型语言模型中的知识,为模型训练过程中的常见挑战提供宝贵见解和有效解决方案。
Sep, 2023
通过使用 Large Language Models (LLMs),我们提出了 ModelGPT 框架,以满足用户的特定需求,并以更快的速度生成定制化的 AI 模型,以实现更加便利和用户友好的人工智能模型。
Feb, 2024
在资源匮乏的情景下,我们评估了早期学习曲线估计作为选择在非深度学习者应用的最适模型的实用机制,以提高性能并控制成本。使用西伊比利亚 - 罗曼斯语族中的加利西亚语作为案例研究,实验结果与我们的预期一致。
Feb, 2024