通过隐含组合进行算法归纳的任务无关架构
介绍了一种广泛适用的形式主义,即组合问题图,以解决机器学习中不利于推广的问题,提出了组合泛化问题并引入组合递归学习器,该框架适用于学习算法过程以组合表示转换,从而产生能够进行推理的学习器。
Jul, 2018
利用句法结构的注意力屏蔽技术从根本上提高了组合概括的重要性,特别是在多模式环境中的语义根基问题。通过在 Transformer 编码器中的权重共享,依赖解析在不同任务中推动了基于语法的组合概括的最新研究。这些结果提高了多模式语义根基和参数高效建模的技术水平,并为未来的研究提供了深入洞察。
Nov, 2023
我们分析了 Transformer 语言模型在学习离散算法方面的能力,通过引入两个需要组合多个离散子任务的新任务,我们在从头开始训练 LLaMA 模型以及 GPT-4 和 Gemini 上引导训练时,度量了学习的基本组合。我们观察到,最先进的 Transformer 语言模型的组合能力非常有限,而且在样本上的规模效果比为新的算法组合重新学习所有子任务要差。我们还提出了一个复杂性理论的定理,证明了在记忆前馈模型上的梯度下降可能在数据效率上指数级低效。
Feb, 2024
该文探讨了怎样使用 Transformer 网络在算法任务中表现良好,展示了多层 transformer 网络在任务分解中的可靠性解决方案,以及所有相关任务中的共享计算的利用。
Oct, 2022
该研究回顾了当前深度学习语言处理网络的主要创新,讨论了一系列研究表明深度网络能够进行微妙的语法依赖性泛化,但也不依赖于系统化的组合规则,这一现象应该引起语言学家和认知科学家的兴趣。
Mar, 2019
我们提出了一种用于学习算法任务的原创方法,该方法受符号人工智能中的重写系统的启发,该系统由专门的模块组成的神经结构实现,通过系统地应用组合规则来解决超出分布的问题实例。
Feb, 2024
多模态模型在人工智能的未来进展中被认为是一个关键组成部分,本文通过一种新的架构和训练配置特定的分类方法,从多个角度对通用多模态模型进行了综述,并提出了关键挑战和前景。
Jun, 2024
本论文概述了生物神经网络为灵活认知所需的特征,讨论了神经网络体系结构的系统级通信和重复性以及短期拓扑变化对于机器学习模型的贡献,并说明人工系统中测试这些归纳偏见有助于理解领域通用认知的生物学原则。
Mar, 2023
本篇论文提出了一种新型的人工智能生态系统,将基础模型与数百万 API 相连通以实现各种数字和实体任务,该方法主要利用基础模型作为中心系统,将这些 API 作为子任务解决器,以完成各种任务。
Mar, 2023