- InvKA: 基于可逆 Koopman 自编码器的步态识别
基于 Koopman 算子理论,本研究探索了嵌入空间中步态特征,以提高可解释性,同时通过使用可逆自编码器减少计算量和压缩模型深度,实现了与先进方法相当的识别准确率 98%,并将计算成本降低到 1%。
- 交通场景相似度:基于图形对比学习的方法
通过使用图形来构建一个有意义的嵌入空间,我们的方法展示了场景的连续映射以及基于嵌入结果形成主题相似群集,从而在后续测试过程中识别相似场景,从而减少冗余测试运行。
- 欧氏空间和嵌入空间中基于边界感知的点聚类方法用于屋顶平面分割
通过使用多任务深度网络在欧几里德空间和嵌入空间中构建的点聚类方法来解决屋顶平面分割中边界问题,并构建了合成数据集和真实数据集验证了该方法的显著优越性。
- 点绑定与点 LLM:用于三维理解、生成和指令跟随的点云多模态对齐
我们引入了 Point-Bind,这是一个将三维点云与二维图像、语言、音频和视频对齐的多模态模型。通过 ImageBind 的引导,我们构建了三维和多模态之间的联合嵌入空间,实现了许多有前景的应用,例如任意到三维生成、三维嵌入算术和三维开放 - Ceci n'est pas une pomme: 多模态嵌入中的对抗幻觉
多模态编码器、敌对幻觉、嵌入空间、接近度、零样本分类。
- 分析 Transformer 动力学作为嵌入空间中的移动
Transformer language models are explored to understand their mechanics, revealing that intelligent behaviors are mapped - ICCVDeDrift:内容漂移下的鲁棒相似度搜索
通过研究媒体共享网站上上传和搜索的内容的统计分布,我们调查了 “内容漂移” 对基于嵌入空间中最近邻搜索的大规模相似度搜索工具的影响。我们提出并分析了基于可用长时间段上的时间信息的真实图像和视频数据集,基于这些学习结果,我们设计了一种名为 D - 嵌入树:在嵌入中对实体特征进行层次探索
提出了一种层次嵌入探索算法 EmbeddingTree,通过关联语义和嵌入向量,解释了特征是如何在学习到的嵌入空间中被编码的。同时还开发了交互式可视化工具,帮助用户探索高维嵌入,并演示了在工业规模的商家数据和公开的音乐播放列表数据集上生成的 - L3DMC: 基于混合曲率空间的蒸馏式终身学习
提出了一种名为 L3DMC 的蒸馏策略,通过在混合曲率空间上操作,以维持复杂的几何结构来保留已学习的知识,用于 L3 模型的优化和医学图像分类任务。
- 插上并祈祷:利用多模态模型的现成组件
多模型系统中对抗嵌入空间攻击,特别是使用预训练编码器,可能导致上下文污染和隐藏提示注入,对系统的行为产生重大影响,因此在插拔式系统中应对其进行全面检查以确保安全性。
- 基于关系推理的 OOD 检测不需要大类别间的明显分离
本研究提出了一种新的无需经过微调就可以基于嵌入空间进行 Out-Of-Distribution 检测的方法,其中使用了 relation reasoning pre-training,并展示了一种控制交叉类别边缘的损失函数优于基准方法的实验 - 锐化奇异值分解与音乐推荐
本文研究了在音乐推荐中广泛使用的截断奇异值分解的一个奇特效应,提出了一个度量此效应强度的度量方法,并证明了它与不同内部流行度的物品社区相关,最后展示了如何在添加数据的情况下估算音乐嵌入的前 k 个相似物品如何随时间变化。
- 一种自编码器用于学习最近邻
我们提出了自编码器,该神经网络训练用于猜测每个数据样本的身份。尽管它很简单,但它以一种自监督的方式学习到了非常有用的数据表示。
- 旋转等变对比学习结构化表示几何
本文提出了一种自我监督的学习方法,通过向嵌入空间添加额外的几何结构以获得更有意义的数据差异性表示,并引入等变目标使旋转操作在球面嵌入空间上的表现更佳,从而取得了更好的性能表现。
- 使用图像标签增强零样本检测训练
该研究使用 ImageNet 图像标签结合 CLIP 嵌入空间,解决了零样本检测中输出嵌入对齐问题,实现了在 COCO 上的高准确度
- 图的 Bures-Wasserstein 平均值
本文提出了一种基于嵌入空间和 Wasserstein 距离度量的图平均值定义框架,可通过迭代算法计算得出可保留结构信息的均值图,该框架在结构图聚类、功能脑网络分类和半监督节点分类中表现优异,是一个有价值的实用工具。
- 驯服 AI Bot:大型语言模型神经状态的可控性
本文探讨了用合适的标志控制 AI 机器人并让其达到任何状态的问题,并给出了有关 “意义意义” 的正式定义以及 “有意义的数据” 和 “训练有素的 LLMs” 的特征。通过介绍注意力 AI 机器人的功能特征,并推导出了可控性所需的必要和充分条 - 语言模型词嵌入空间中的词汇文体特征表达
本研究发现,通过预训练语言模型(LMs)建立的表征空间,不仅编码了单词及其关系等抽象语义概念,也能够识别如复杂性、正式程度和象征性等字词风格,以及使用在小数量文本中产生的矢量表征。此外,本文还对这些表征空间的词级与短语级特征进行了分析,并表 - k-NNN: 通过邻居的邻居来进行异常检测的最近邻居算法
通过考虑最近邻居和邻居的邻居(k-NNN)提出一种新的算子来提高异常检测算法的性能,在常见的同质数据集(例如具有特定类型的花卉或坚果)和更多样化的数据集上均得到了改进。
- 利用多模态语言模型生成图像
该论文提出了一种方法,通过将文本形式的大型语言模型嵌入图像编码器和解码器模型中,利用它们的嵌入空间之间的映射来融合两者,从而实现多模态的图像检索、新颖图像生成和多模态对话,同时还能生成并处理图像和文本输入,比非基于 LLM 的模型在一些基于