- AAAI残差卷积神经网络中的分类拟合模式揭示
本文探讨了使用概率模型分析神经表示的方法,揭示了深度残差网络对类别的拟合存在两种不同的分布模式,这种结构与训练样例的记忆化和对抗性鲁棒性的相关性有关,并通过比较神经表示的类别条件分布,揭示了类标签在网络结构中的出现位置。
- ICLR随机神经网络的表征差异度量空间
通过推广之前提出的形状度量方法,我们定量地比较了神经表示中的随机性差异,并发现神经生物学表示的随机几何形状分别类似于未经过训练和经过训练的深度网络表示。
- 探究用于端到端语音识别的统计表示
分析了 transformer 架构中跨域语言模型依赖关系的研究,使用 SVCCA 发现转换器层中的特定神经表示具有相关行为,并影响识别性能。这项工作提供了有关模型方法的分析,这些模型方法影响了环境依赖关系和 ASR 性能,可以用于创建或调 - 深度学习中 CKA 作为相似度度量的可靠性
通过分析 Centered Kernel Alignment 算法对于在机器学习中出现的简单变化的敏感度,我们研究了该算法的若干弱点,并探索了在保持功能行为的前提下改变 CKA 值的方法,结果表明 CKA 值可以容易地被操纵而不需对模型做实 - 线性保障性及其影响
本文研究了神经表示中线性保护性的影响,以及在二进制情况下,附加线性层无法恢复保护性概念。但是,使用多类 softmax 分类器可以间接恢复目标概念,暴露了线性信息去除方法的理论限制。
- NeuForm:神经形状编辑的自适应过度拟合
NEUFORM 通过将过度拟合和可推广的表示相结合来精确编辑神经场景表示,且在椅子、桌子、灯具等人造物品形状的部分成功进行了重构,同时保留了语义完整性和过度拟合形状表达的准确性。
- 通过句法角色实现句子表示中的无监督内容解缠
本研究通过基于注意力的概率生成模型,建立了句子中不同句法角色的潜在变量之间的交互关系,并证明了在无监督情况下可以对句法角色进行拆分与控制,为无监督内容生成提供了一种有效的方法。
- ICML对抗训练的神经表示可能已经与对应的生物神经表示一样强大
本文研究模仿灵长类动物视觉系统中的神经表征可以产生对抗性稳健的人工视觉系统的想法。通过攻击猴子脑活动的方法,发现猴子的视觉系统对抗扰动的敏感度与稳健训练的人工神经网络相当。
- 基于对抗神经表示学习的异构域自适应:以电子商务和网络安全为例的实验
该研究提出了一种新的框架 Heterogeneous Adversarial Neural Domain Adaptation (HANDA),专门针对异构环境下的域自适应问题,通过统一的神经网络架构实现特征和分布的对齐以及域不变性,并在主 - CVPRCaDeX: 通过神经同胚学习表征动态表面的规范变形坐标空间
介绍了 Canonical Deformation Coordinate Space (CaDeX),一种针对形状和非刚性运动的统一表示方法,通过连续的双射规范映射和它们的反函数来因子化帧之间的变形,建模了学习出的规范形状,提供了一种灵活、 - ACL黄金未必总是发光的:线性和非线性受保护属性信息的光谱去除
该研究介绍了一种简单有效的方法,称为 SAL,它使用矩阵分解将输入向量投影到与守卫信息减少协方差的方向上,从而达到去除神经表示中的私密信息的目的。这种方法也适用于非线性信息去除,且其实验结果表明该算法将主要任务性能与去除守卫信息后的性能相比 - CVPRStyleGAN-V:具备 StyleGAN2 的价格、图像质量和特点的连续视频生成器
本文基于神经表示方法设计了一个连续时间视频生成器,提出了基于位置嵌入设计连续运动表示的思想,构建了一个聚合时间信息的完整判别器,使用该方法可以以更少的训练成本直接训练 1024x1024 的视频,并取得了优于其他同类工作的生成效果。
- 自监督和有监督方法是否学习相似的视觉表征?
对比对神经表示的最新技术,研究了对比自我监督算法和简单图像数据在共同架构中的监督学习方法的中间表示的学习,发现这些方法通过不同的方法学习相似的中间表示,但在最后几层中表示迅速发散,旨在突出学习的中间表示的重要性,并提出了辅助任务设计的关键问 - EMNLP条件探测:在基线之外测量可用信息
研究神经表示在探测实验中的有效性并提出一种条件探测的理论,通过该理论研究发现在条件化非上下文单词嵌入后,部分性质如词性是可以在深层网络中被探测的。
- ACORN:神经场景表示的自适应坐标网络
提出一种新的混合隐式 - 显式网络架构和训练策略,采用多尺度块坐标分解,并在训练期间自适应分配资源,以适应信号的本地复杂性,可成功将吉卜赛像素图像提高至接近 40dB 峰值信噪比,以及比以前技术更快,更好地表示 3D 形状。
- EMNLP选择语言探针的信息论视角
本研究对神经表示的语言知识进行了评估,并探讨了如何选择好的探针,结果发现 Hewitt 和 Liang 以及 Pimentel 等人提出的控制任务和控制函数方法在错误率上非常相近且等效。
- 探索层次化学习:神经表征的好处
本文指出了中间神经表现添加了深度学习网络的灵活性并且在原始输入上具有优势,并阐述了与浅学习者,如卷积内核的神经表现的关系。通过学习低秩的多项式,中间神经表现可以实现比原始输入更少的样本复杂度,并且在神经可切内核的情况下,本文还提出了神经表现 - ACLCompGuessWhat?!:基于感知的语言学习的多任务评估框架
提出了一个评估框架 GROLLA,用于属性引导的基于场景的语言学习,其中包括三个子任务,以及一个用于评估学习潜在表征质量的新数据集 CompGuessWhat?!。结果显示,现有的模型学到了表达对象属性的表征的能力不足,并且它们没有学会足够 - AAAI上下文感知自注意力网络
通过上下文信息来提高自注意力网络有效性的研究表明,利用内部嵌入全局和深度上下文的方式来上下文化查询和键层变换可以提高翻译任务的性能.
- 深度卷积网络中的反馈对齐
研究深度人工神经网络中的反向传播学习算法与大脑神经元突触可塑性规律的类比,介绍了不依赖于对称前向和后向突触权重的算法,提出通过加强权重符号一致性的反馈对准法的修改,可以实现与反向传播法相当的性能。这些研究结果表明,促进前向和反馈权重对准的机