什么塑造了特征表示?探索数据集、体系结构和训练
在这项工作中,我们探讨了表示学习和解释所学的表示在机器学习和神经科学中的关键领域,并发现了表示与计算之间一些令人惊讶的脱节现象,这可能对相关工作构成挑战。我们通过创建数据集来匹配不同特征的计算角色,并操纵特征或数据的其他属性。我们训练各种深度学习架构以计算这些关于输入的多个抽象特征,并发现他们学到的特征表示在表示一些特征时存在系统性的偏倚,这些偏倚依赖于特征的复杂性、特征学习的顺序和特征在输入中的分布。同时我们还探索了这些偏差对体系结构、优化器和训练方案的影响。这些结果有助于描述基于梯度的表示学习的归纳偏差,同时突出了理解性或对比模型和大脑之间表示的关键挑战,即区分系统内部表示的外部偏差和计算上重要的方面。
May, 2024
深度学习模型从数据中提取多种多样的特征,但这些特征的使用不仅取决于其预测能力(即特征如何可靠地指示训练数据标签),还取决于其可提取性(即特征从输入中容易提取或利用的程度)。研究表明,某些模型更喜欢使用某些特定的特征,例如纹理优先于形状,图像背景优先于前景对象。本研究通过构建一个具有预测性和可提取性差异的最小显性生成框架,并量化了模型的 Shortcut Bias(即过度依赖快捷特征而忽视核心特征的程度),从而系统研究了预测性和可提取性如何相互作用来影响模型的特征使用。实证结果表明,线性模型相对没有偏见,但引入具有 ReLU 或 Tanh 单隐藏层的模型则会产生偏见。最后,本研究还研究了在实际使用中,模型是如何在自然数据集中权衡预测性和可提取性,并发现了增加模型 Shortcut Bias 程度的可提取性操作。综上所述,这些发现表明,在深度非线性架构中学习快捷特征的倾向是一个基本特征,值得进行系统研究,因为它影响模型解决任务的方式。
Oct, 2023
语言模型利用线性表示假说来执行计算,但我们研究表明某些语言模型的表示可能是固有的多维的。我们开发了一种基于不可约多维特征的严格定义,用于确定这些特征是否能够分解为独立或非共现的低维特征。通过使用稀疏自动编码器自动发现 GPT-2 和 Mistral 7B 中的多维特征,这些自动发现的特征包括具有显著可解释性的例子,例如表示星期和月份的圆形特征。我们确定了使用这些确切圆形特征来解决涉及星期和月份的模块算术计算问题的任务。最后,通过对 Mistral 7B 和 Llama 3 8B 进行干预实验,我们提供了这些圆形特征在这些任务中确实是计算的基本单元的证据,并通过分解这些任务的隐藏状态为可解释的组件,找到了更多的圆形表示。
May, 2024
研究表明,在预先训练的神经网络中,一个给定层中的许多神经元之间存在一定程度的冗余,因此可能不需要整个层来执行下游任务,这为提高下游任务的效率和减少数据成本提供了可能。
May, 2023
本研究探讨了深度学习中中间层所提取的深层特征,并证明了这些特征的性能可能不佳,因为它们是通过最小化经验风险来学习的。针对当前任务与基准数据集的数据分布不同的情况,本研究提出了一种层次稳健优化方法来学习更通用的特征。该方法同时考虑了 example-level 与 concept-level 稳健性,并将问题公式化为带有 Wasserstein 模糊集约束的分布稳健优化问题。本文提出了一种高效的算法,并在标杆数据集上进行了实验,证明了稳健特征的有效性。
Nov, 2019
通过对超参、架构、框架和数据集进行大规模实证研究,我们发现训练方法的差异会导致模型产生不同的泛化行为,从而在子域中表现更好,与其他模型的错误更不相关。这种多样性可以提高集成表现,并且连低准确度的模型也可以用来提高高准确度的模型。此外,我们发现训练方法的差异会使表示捕捉到有重叠但不是超集的特征集,将其结合可以提高下游性能。
Oct, 2021
通过研究具有一个隐藏层的网络的学习动态,我们发现网络的激活函数对于表示几何的影响强于预期:Tanh 网络倾向于学习反映目标输出结构的表示,而 ReLU 网络保留了更多关于原始输入结构的信息。这种差异在广泛的参数化任务中一直存在,我们在这些任务中调节任务输入的几何与任务标签的对齐程度。我们通过分析权重空间中的学习动态,说明了 Tanh 和 ReLU 非线性网络之间的差异是由于 ReLU 的非对称渐近行为导致的,这导致特征神经元专门针对输入空间的不同区域。相比之下,Tanh 网络中的特征神经元倾向于继承任务标签结构。因此,当目标输出是低维时,Tanh 网络生成的神经表示比采用 ReLU 非线性的表示更具解耦性。我们的发现揭示了神经网络中输入输出几何、非线性和学习表示之间的相互作用。
Jan, 2024
本文提出了一种模型无关的方式来测试特征组和交互作用,并使用假设检验来评估特征对模型损失的影响,并使用层次化方法控制假阳性错误率,并应用于两个生物医学应用中的随机森林和 LSTM 神经网络模型分析。
Nov, 2018