相对表示使零样本隐空间通信成为可能
通过对相对空间的角度保持相对表示的可逆性进行形式化,并假设神经模型中解码器模块的尺度不变性,我们将两种方法结合起来,通过相对空间获得潜在空间转换的新方法。通过在各种架构和数据集上进行大量实验证实了我们的尺度不变性假设,并证明了我们方法在潜在空间转换中的高准确性。我们还将我们的方法应用于任意预训练文本和图像编码器及其分类器之间的零射缝,甚至跨模态。通过组合性,我们的方法具有促进模型实际重用的显著潜力。
Jun, 2024
本文提出了一种优化方法,以从有限数量的种子中发现新的并行锚点,用于发现不同领域之间的语义对应关系,对齐它们的相对空间,并在多个任务中实现具有竞争力的结果,这展示了相对表示在启用潜在空间通信和零样本模型缝合方面具有潜力。
Mar, 2023
通过简单的转换,我们的研究展示了神经网络模型中学习到的表示可以在不同的预训练网络之间进行转化,从而有效地连接编码器和解码器,并实现在多模态设置下的出色分类性能。
Nov, 2023
通过在语义相关的数据集和任务上训练的模型,我们研究了聚合这些潜在空间以创建包含组合信息的统一空间。我们引入了相对潜在空间聚合(Relative Latent Space Aggregation)作为一个两步方法,首先使用相对表示使空间可比较,然后通过简单平均聚合它们。我们把一个分类问题细分为三种不同的设置下的学习任务,并训练每个任务的模型并聚合结果的潜在空间。我们将聚合空间与在所有任务上训练的端到端模型产生的空间进行比较,并表明两个空间是相似的。我们观察到聚合空间更适合于分类,并通过实验证明这是由于任务特定嵌入器遗留在表示中的独特印记。最后,在不存在共享区域的情况下测试我们的框架,并显示它仍然可以用于合并空间,尽管相对于简单合并而言其好处有所降低。
Nov, 2023
为了理解生物和人工神经网络的操作,研究者们需要一个标准化的工具集来量化其结构等因素对神经表征的影响,这篇论文提出了一族量化表征不同神经网络之间相似性的度量空间,利用这个框架使得神经网络表征可以整合进任意的机器学习方法中,然后利用大规模生物和深度学习数据集来验证这些方法,最终找出了神经表征之间与结构和性能之间的关系。
Oct, 2021
直接将一组不变性直接融入表示中,构建一种不变分量的产品空间,旨在解锁合并、拼接和重用不同神经模块的应用,并观察到分类和重建任务中的一致潜在相似性和下游性能改进。
Oct, 2023
实际几何和 3D 视觉任务充满了令人困惑的对称性,该论文介绍了一种名为神经等距映射的自动编码器框架,它学习将观察空间映射到通用的潜在空间,在这个空间中,当相应的观察在世界空间中有几何关系时,编码是由等距映射相关的。这种方法形成了一个有效的自监督表示学习的基础,并且我们证明了一个在预训练的潜在空间中操作的简单暗箱神经网络能够达到与精心设计的手工网络相媲美的结果,以处理复杂的非线性对称性。此外,等距映射捕捉了世界空间中相应变换的信息,我们展示了这使我们能够直接从相邻视图的编码之间的映射的系数为相机姿态回归。
May, 2024
通过识别神经表示、潜在空间、潜在交流、相对表示和数据模态关键词,研究发现神经网络的潜在表示具有普适性和可重用性,可以在不同模型之间传递和转化,实现生成、分类和检索等任务,跨图像、文本、音频和图形等各种数据模态。
Jun, 2024
在这篇论文中,我们展示了在使用潜在表示时应考虑的等变模型对归纳偏好的作用,并表明不考虑归纳偏好会导致下游任务的性能降低,相反,通过使用潜在表示的不变投影来有效地考虑归纳偏好,我们提出了选择这种投影的原则,并通过两个常见的例子展示了这些原则的影响:首先,我们研究了用于分子图形生成的置换等变变分自编码器;在这里,我们展示了可以设计一种不变投影,在结果不变表示中没有信息损失。接下来,我们研究了用于图像分类的旋转等变表示;在这里,我们说明了如何使用随机不变投影来获得一个在保留大量信息的不变表示。在这两种情况下,对不变潜在表示的分析证明优于它们的等变对应物。最后,我们证明了等变神经网络中记录的现象在通过数据增强鼓励不变性的标准神经网络中也存在。因此,虽然有经验的等变模型开发人员可能已经知道这些歧义,但我们将这些知识和处理这些歧义的有效工具提供给更广泛的社区。
Jan, 2024
本研究提出了一种基于 Riemannian geometry 的扩展的变分自编码器框架,可以学习平面的潜在流形,通过约束优化问题和使用更具表达力的层次先验代替紧凑先验,使得在保留直线状方法的计算效率的同时,能够在视频跟踪基准测试中接近监督学习方法的性能。
Feb, 2020