神经网络及其衍生领域的知识一致性
该研究提出了两种方法可以将具有不同知识的神经网络的信息合并,一个是通过加权和的简单操作,另一个是通过修改权重来转移知识;这些方法被应用于分类等任务,并证明其效率。
Sep, 2018
为了训练深度网络,需要在体系结构、数据增强或优化等方面作出各种设计决策。本文通过使用由数千个在 ImageNet 等经典数据集上训练的模型组成的公共模型库,在预训练模型的任意配对中发现了不同模型从数据中学习出独特的特征集。我们研究了在没有外部排名的情况下,是否能够在不降低性能的情况下从一种模型中转移这种 “互补” 知识到另一种模型,同时将强大、具有相似性能或较弱模型中的额外知识结合起来。通过大规模实验,我们揭示了标准知识蒸馏技术的缺点,并提出了一种更加通用的通过数据划分实现几乎所有预训练模型之间成功转移的方法,也证明了无监督转移的可能性。最后,我们评估了基本模型属性对成功的模型无关知识转移的可扩展性和影响。
Oct, 2023
通过 DeepKnowledge 系统测试方法,可以评估 DNN 的可靠性和泛化能力,并通过提供测量信息和检查测试集的传输知识容量来改善 DNN 的稳健性。
Mar, 2024
研究深度神经网络的泛化差距问题,发现模型不一致和不稳定性是影响泛化差距的关键因素,通过算法降低不一致性可以提高性能,并为现有方法(如协同蒸馏和集成学习)提供了理论基础。
May, 2023
深度神经网络在学术界和工业界越来越普遍,在各个领域和相关任务上与人类的表现相媲美甚至超越。然而,即使是最大的人工神经网络也会出错,随着时间的推移,曾经正确的预测可能会失效。通过在数据集中增加考虑错误或最新信息的样本,可以解决这个问题。然而,灾难性遗忘现象对于改变神经网络参数中的隐性记忆知识以达到精确变化提出了挑战,通常需要重新训练整个模型才能实现所需的行为。这种方法昂贵、不可靠,并且与大规模自监督预训练的现行趋势不兼容,因此有必要找到更高效和有效的方法来适应变化的数据。为了满足这个需求,知识编辑作为一个新颖的研究领域正在兴起,旨在实现对预训练目标模型的可靠、数据高效和快速的变化,而不影响先前学到的任务上的模型行为。在本综述中,我们对这个最新的人工智能研究领域进行了简要回顾。首先,我们介绍了神经网络编辑的问题,在一个共同框架中对其进行了形式化,并将其与连续学习等更有名的研究分支进行了区分。接下来,我们对迄今为止提出的最相关的知识编辑方法和数据集进行了回顾,并将这些工作分为四个不同的类别:正则化技术、元学习、直接模型编辑和架构策略。最后,我们概述了与其他研究领域的一些交叉点和未来的潜在方向。
Oct, 2023
提出了一种基于 Trial-by-Trial 误差一致性的定量分析方法,可以区分决策者(大脑或算法)的处理策略,在对象识别方面,人类和机器视觉之间仍存在巨大的差异。
Jun, 2020
本研究提出了一种基于知识辅助一致性网络的短语定位方法,结合视觉和语言模态以及外部知识增强弱监督场景下的模型表现,实验结果表明该方法对两个流行数据集均有显著改进。
Mar, 2018
本论文提出了基于深度神经网络的一种新型增量学习方法,该方法基于知识蒸馏并采用一种规范的方式来有效地维护旧模型的表示,以适应新任务,克服了数据访问受限导致的灾难性遗忘问题,并在标准数据集上实现了显著的准确性改进。
Apr, 2022
该论文提出了一种新颖的信息化机器学习方法,建议在先前的知识上进行预训练,这可以加快学习过程,提高泛化能力,增加模型的鲁棒性,并且可以将语义知识转移至深层次特征。
May, 2022
本文介绍了一项新的基准测试,共包含九个任务涵盖自然语言处理和计算机视觉等领域,该测试旨在系统评估外部知识约束整合方法的效果,通过一组扩展的评估标准分析各种模型的性能,为相关研究挑战提供了框架和指导。
Feb, 2023