- 多提示与深度分割的跨模态学习
本研究提出了分区多模态提示方法(PMPO),将软提示从单个可学习提示扩展到多个提示,以捕获视觉表示的分层上下文深度。此外,我们结合手动设计的模板和可学习的多提示,以提高方法的泛化能力,并在新类别概括、跨数据集评估和领域泛化等三项具有挑战性的 - 神经网络中度量空间和泛化能力
本文介绍了一种用 topology 中的新型不变量.magnitude 对深度神经网络中的内部表示进行研究、并提出了一种新方法来确定其泛化能力。我们在理论上连接了 magnitude 维度和泛化误差,实验结果表明,所提出的框架可以成为泛化误 - 学习轨迹是概括指标
本文旨在探讨深度神经网络(DNNs)的学习轨迹与其在广泛使用的梯度下降和随机梯度下降算法优化时的相应泛化能力之间的关系。作者构建了线性逼近函数以建立轨迹信息模型,并基于其提出一种新的、基于更丰富轨迹信息的泛化界限。实验结果表明,所提出的方法 - 无好老师的隐私保护联合蒸馏中的选择性知识共享
本文提出了一种新的联邦蒸馏机制(Selective-FD),其中包括客户端和服务器端选择器来准确地识别本地和集合预测的知识以增强联邦学习框架的泛化能力,并在实验中得到验证。
- 自适应特征融合:增强深度学习模型的泛化能力
本文介绍了一种创新的方法 —— 自适应特征融合(AFF),可以通过动态地调整特征表示的融合过程来增强深度学习模型的泛化能力。研究表明,使用 AFF 方法可以提高模型性能,并在多个基准数据集上进行了广泛的实验验证。该文还探讨了 AFF 方法的 - 视觉语言学习中知识的贡献:任务和挑战调查
研究了基于视觉和语言协同的任务,考虑利用知识图谱和大型语言模型等外部知识来源填补现有 VL 预训练数据集中存在的知识缺失问题,提出了基于混合架构的解决方案,并总结了知识图谱与大型语言模型潜在对未来混合模型的影响。
- ICLRClifford 神经层用于 PDE 建模
本研究使用多向量场与 Clifford 卷积、Clifford Fourier 变换相结合的方法来加速神经 PDE 代理,取得了比常规方法更好的预测效果。
- SizeShiftReg: 一种用于提高图神经网络尺寸泛化能力的正则化方法
本研究提出一种基于规则化策略的方法,能够在只有训练数据而没有测试数据的情况下,提高图神经网络在更大规模的图上的泛化能力,从而改善图分类的性能。实验结果表明,流行的 GNN 模型在我们的规则化策略下,在 50% 规模最小的图上进行训练,在 1 - ICMLVLUE: 一个评估视觉语言模型的多任务基准
本研究介绍了一个名为 VLUE 的视觉语言理解评估基准,可用于评估 VLP 模型的泛化能力和效率 - 性能权衡。该基准显示了所有 VLP 模型在处理来自更多文化领域且未在预训练中出现的图像时存在较大的泛化差距,并且衡量 VLP 模型的效率 - BEIR: 一个用于零样本评估信息检索模型的异构基准
BEIR(Benchmarking-IR)是一个针对信息检索的鲁棒性和异质性评估基准,通过对 18 个公开数据集的评估,发现 BM25 是一个强大的基线,而后期交互和重新排名模型通常可以实现最佳零 - shot 表现,但计算代价高,与此相反 - ACLGLGE:一个新的通用的自然语言生成评估基准
本篇论文介绍了新的多任务基准测试 ——GLGE,以综合比较自然语言生成模型在八个语言生成任务上的泛化性能,包括三个难度子任务,并公开数据集及源代码,以促进自然语言生成模型的预训练和迁移学习研究。
- 基于时空特征的深度伪造视频普适检测
通过使用 3D CNN 建立时空特征提取模型,我们提出了一种新的深度伪造视频检测方法,相比于现有方法能更准确地进行分类,并且经过测试表现出更强的通用能力。
- ICLR熵梯度下降算法与宽平坦最小值
论文讨论了神经网络的经验风险景观的平坦极小值的特性,提出了增加最大平坦度算法,可以得到更好的分类效果。
- ACL使用多头注意力机制为行为机器人导航翻译自然语言指令
本文提出了一个多头注意力机制,作为神经网络模型的混合层,用于将自然语言转化为高水平的行为语言,以便室内机器人导航。作者遵循了 Zang 等人(2018a)提出的框架,提出使用导航图作为任务的知识库。实验结果表明,在以前未见过的环境中翻译指令 - EMNLPMRQA 2019 共享任务:阅读理解通用性评估
在 Machine Reading for Question Answering (MRQA) 2019 shared task 中,我们通过将 18 个不同的 question answering 数据集调整并统一格式来评估阅读理解系统的 - ICML通过自适应稀疏连接提高深度学习的泛化能力
本文中,我们提出了一种基于稀疏连接的神经网络模型,使用自适应稀疏连接和纯化神经元的方法进行训练,并将其应用于 MLP 模型上,测试结果表明,该方法在 15 个数据集上表现出了竞争性的分类和泛化性能。
- 超参数问题中最小权重范式模型不总是具有良好的泛化能力
通过实证发现,自适应方法在深度神经网络的训练中相比随机梯度下降可以有更好的泛化能力,需要较少的调整,同时不一定得到更小的权重范数。
- 深度神经网络的学习动态
研究深度神经网络的学习动态,主要关注于二元分类问题。我们证明了网络学习的各种性质,并且在非线性架构下,分类误差也呈现出 sigmoid 形状,证实了经验观察。我们指出了梯度饱和现象和特征频率对模型收敛速度的影响,并探讨了交叉熵和 hinge - EMNLP临床领域自然语言推理的启示
介绍了 MedNLI 数据集的自然语言推理任务 (NLI),并提出了两种解决深度神经网络模型在特定领域泛化能力差的方法:利用开放域数据集进行迁移学习和结合外部数据和词汇来源的领域知识。实验结果表明,两种方法均可提高模型性能。
- 跨数据集分析测试平台
本文开展了针对视觉图像识别中数据集偏见问题的大规模分析,通过将 12 个已有数据库组织成一个语料库,提供了一个有用的特征储存库以供未来研究使用。