- InstructGIE: 通向通用图像编辑的探索
一个新的图像编辑框架,通过增强上下文学习能力和统一语言指导以提高泛化鲁棒性,利用 VMamba Block 和编辑偏移匹配策略来增强图像编辑任务的能力,并结合选择性区域匹配技术和语言统一技术来改善生成图像的质量,同时提供第一个利用视觉提示和 - 神经红移:随机网络不是随机函数
神经网络的归纳偏见和简单性偏见对于深度学习的成功是重要的,可以通过不同的架构进行控制。
- 知识图谱增强的大型语言模型编辑
利用知识图谱提升大型语言模型的编辑能力,通过图结构反映编辑过程中的关联知识变化,有效改善后编辑语言模型在处理编辑知识时的泛化能力。
- 分层变压器是高效的元强化学习者
Hierarchical Transformers for Meta-Reinforcement Learning (HTrMRL) is an online meta-reinforcement learning approach tha - TEPI:用于稀疏标记的零样本基因分类的分类学感知嵌入和伪图像
使用 TEPI(面向分类法的嵌入和伪成像)通过零样本学习,将基因组表示为伪图像并映射到具有分类法意识的嵌入空间,从而捕获物种的组成和系统发育关系,进而在广泛的搜索空间中进行预测,并通过在大规模公开数据上进行定性评估展示其广义性能。
- 一维标量非线性守恒方程中基于上下文算子网络的 PDE 推广研究
在本文中,我们通过研究 ICON 对守恒定律的广义化能力,探讨了建立一个能够广泛应用于各种 PDE 相关科学学习任务的单个大型模型的可能性,而且这个模型即使对于新形式的 PDE 也不需要经过微调即可广义化。
- 深度强化学习中的泛化分析调查
通过利用深度神经网络解决高维状态或动作空间中的问题,强化学习研究在许多领域获得了显著的成功和关注。本文将概述深度强化学习策略遇到过拟合问题从而限制其鲁棒性和泛化能力的基本原因,并形式化和统一不同的解决方法来增加泛化能力并克服状态 - 动作值 - 具有通用性的视觉增强学习与分割模型
SAM-G 通过利用 Segment Anything Model (SAM) 的分割能力,结合 DINOv2 和 SAM 的图像特征,为视觉强化学习代理提供高质量的遮罩图像,显著改善了视觉泛化能力,并在 DMControl 和 Adroi - 个性化联邦学习中的上下文调节和元学习
提出了一种将联邦学习与元学习技术相结合的新框架,通过学习数据批次的上下文信息并使用该知识生成调制参数来动态调整基础模型的激活,从而实现了联邦学习的效率和泛化能力的提高。实验结果表明,与现有的联邦学习方法相比,这种方法在收敛速度和模型性能方面 - AAAI机器学习算法的泛化分析:最坏情况数据生成概率测度
该研究介绍了将最坏情况下的概率度量引入数据中,以表征机器学习算法的泛化能力。最坏情况下的概率度量是 Gibbs 概率度量,并且是相对熵约束下期望损失最大化的唯一解。该研究还通过最坏情况下的数据生成概率度量得出了基本的泛化度量指标,例如期望损 - 多中心泛化中的挑战:Roux-en-Y 胃旁路手术中的阶段和步骤识别
通过评估多中心多活动数据集在七个实验研究中的表现,该论文展示了使用人工智能模型进行手术活动识别的一种方法,强调使用多中心数据集来提高模型的泛化能力。
- 运用物理先验信息的深度学习作为广义正则化器
将近似模型作为物理先验加入模型以防止过拟合和增强训练模型的泛化能力。
- MASP: 面向多智能体导航的可扩展基于 GNN 的规划
我们提出了基于多智能体可扩展图神经网络的分层规划器 (MASP),用于具有大量智能体的导航任务,通过将搜索空间分成多个较小的空间以减少复杂度和加快训练收敛速度,并利用图神经网络建模智能体和目标之间的相互作用,提高目标实现能力,并在未见过的团 - EMNLPAPoLLo:统一的视觉语言模型适配器与提示学习
APoLLo 是一种统一的多模态方法,结合了 Adapter 和 Prompt 学习用于增强 Vision-Language 模型在 few-shot 环境下的泛化能力,通过引入可训练的交叉注意力适配器层和视觉与语言编码器来加强两种模态之间 - 过度参数化对锐度感知最小化的影响:实证与理论分析
训练过参数的神经网络可以得到相同训练损失水平但具有不同泛化能力的极小值。本文分析了过参数化对锐度感知最小化策略(SAM)行为的关键影响,并提供了经验和理论结果,表明过参数化对 SAM 具有重要影响。具体而言,我们证明了在随机设置中 SAM - 回归基础:提升密集编码器领域外检索的简单方法
通过改进训练过程,使用参数高效的方法和适当的负样本,可以提高密集编码器在训练时的泛化能力,从而在单一数据集上训练时实现有效的泛化。
- 再问一次:自我一致性提升(几乎)所有情境下的语言模型推理能力
通过自一致性和自一致性来解决链式思考提示中的贪婪解码的问题,并提出了自一致性的方法,它能够在几乎所有场景中得到优化,同时在六个公开推理基准中表现出显著的性能和卓越的普适性。
- 制作一个甜甜圈:零样本变形物体操作的语言引导层次 EMD 空间规划
这项研究介绍了一种无需演示的层次规划方法,能够处理复杂的长期任务,并展示了在面对新颖和以前未遇到的复杂任务时,模型具备强大的泛化能力。
- 扩散模型的泛化特性研究
扩散模型在理论和实践中的广义化能力、一般化差距以及模型对模式变化的敏感性进行了全面的理论分析和定量分析,证明了其在样本大小和模型容量上具有多项式级别的小一般化误差,使得其非常适用于实际应用。
- 预训练数据混合提高 Transformer 模型选择能力
在这项研究中,我们研究了 Transformer 模型,特别是大型语言模型(LLMs),它们具有在上下文中学习的显著能力,即在未见过的输入 - 输出示例的提示下执行新任务,而无需任何显式的模型训练。我们的实证结果显示变压器在选择无监督模型和