- MAE-DFER:自监督动态面部表情识别的高效掩模自编码器
MAE-DFER 是一种新型的自监督方法,它通过大规模无标签数据的自监督预训练来推动 DFER 的发展,同时采用效率高的局部全局交互 Transformer 编码器,以及明确的面部动作建模,可以学习到强大的动态面部表征。
- 融合物理和虚拟传感器数据的用户情境轻量级建模
本文介绍了一个框架,可收集来自个人移动设备的数据集,包含异构传感器数据,使用六种降维技术,可以在保持准确率损失小于 3% 的情况下,实现 10 倍加速和超过 90% 的特征减少,从而提高上下文分类能力。
- 利用局部性和稳健性实现大规模高斯过程回归
本研究提出了一种基于最近邻预测的高斯过程回归算法,相比于现有算法,该算法具有更快的计算速度和更准确的预测结果,并且其对数据集大小和样本误差的鲁棒性更强。
- 模拟标注员思维:数据集标注指令生成
我们引入了一个新的任务,标签指令生成,旨在解决缺少公开可用的标注说明的问题,我们介绍了一个无需模型训练的框架,并使用一个新创建的快速检索系统,利用大型预训练视觉和语言模型,生成数据集类别的多个不同的视觉和文本表示,我们优化后的标注指令集在 - OpenOOD v1.5: 增强版的 Out-of-Distribution 检测基准
本研究介绍了 OpenOOD v1.5,它是 OpenOOD v1 的显著改进,旨在确保精确、标准化和用户友好的 Out-of-Distribution 检测方法评估。OpenOOD v1.5 将其评估能力扩展到大规模数据集,研究全谱 Ou - arXiv4TGC:大规模时序图聚类数据集
本篇论文提出了一种解决大规模时间图聚类评估的挑战的方法 —— 构建一个包含多个学术数据集的 arXiv4TGC 数据集,并与先前的经典数据集和本论文提出的新数据集进行比较,以提高不同模型的聚类表现和适用于大规模时间图聚类的可行性。
- 使用预训练模型降低速率原则进行图像聚类
该研究提出了一种基于预训练模型的图像聚类方法 ——CLIP,并结合自我标注算法,取得较好效果。
- ICML超大规模机器学习的关系运算自动微分
研究关系数据模型如何区分计算,证明了基于自动差分算法的关系引擎能够轻松处理大规模数据集,并且在大规模分布式机器学习领域与最新专用系统相竞争。
- 使用视觉动作转换器模拟任务与运动规划
该论文提出了一种新的模仿学习系统 OPTIMUS,通过模仿 TAMP 代理来训练大规模视觉运动装置策略,从而介绍了一种专门为模仿学习策划的 TAMP 数据生成流程,并演示了 OPTIMUS 可以解决各种挑战性的基于视觉的操作任务。
- VanillaKD: 从小规模到大规模重返纯净知识蒸馏的威力
本文发现了先前知识蒸馏方法中存在的小数据陷阱并证明了对于大规模数据集,纯粹的知识蒸馏框架可以用更强的数据增强技术和使用更大的数据集来缩小与其他知识蒸馏方法之间的差距,从而使其在大规模情况下效果惊人。
- LMGQS:一份用于查询聚焦摘要的大规模数据集
利用预训练语言模型,在大规模通用文本摘要数据集上建立了新的面向查询摘要的基准数据集,并在多个现有数据集上实现了零样本和有监督下的最先进工作性能。
- 一种具有自适应视图图形编码器的结构感知分组歧视:一种快速的图形对比学习框架
此篇论文主要针对大规模图形表示学习的高成本问题,提出了自适应视图图神经编码器(AVGE)以及结构感知的群体判别(SAGD)方法,通过这两个方法,能够将大规模数据集的训练和推理成本显著降低 250 倍,并且不会丧失下游任务性能。
- 大规模点云的弱监督语义分割
本文提出了一种基于自我监督学习的弱监督方法解决大规模点云语义分割的问题,采用点云着色作为预处理任务,通过生成类原型的方式生成伪标签,并提出了一种稀疏标签传播机制,该方法在室内外不同情景的大规模点云数据集上得到了更好的弱监督结果和与完全监督方 - 自监督多模态表征学习和基础模型调查
本文总结了一些具有里程碑意义的研究论文,直接或间接地构建了当今多模态自我监督学习的基础。该文章回顾了过去几年中用于每种模态的表示学习的发展情况,以及它们如何组合成多模态智能体。
- EMNLP利用三元组间隔目标进行多模式意识形态预测与分析的后置融合
本文介绍了以文本和图像为输入的多模态意识形态预测任务,提出了使用针对模型组成部分的预训练目标的效果,建立五个包含政治内容的大型数据集,并通过实验和分析实现了在文本分析中更好的性能。
- 地牢与数据:一个大规模的 NetHack 数据集
介绍了 NetHack Learning Dataset(NLD)—— 一个高度可扩展的来自于极具挑战的游戏 NetHack,包含 10 亿个状态转换的大型数据集,研究展示了需要深入探讨在线离线强化学习以及学习演示等算法,才能更好地应用于挑 - 分布式半监督模糊回归与内插一致性正则化
本研究提出了一种基于模糊回归和插值一致性正则化的分布式半监督学习模型,可以很好地应对不确定性数据和高计算、通信成本问题,在分布式场景下较快地收敛,适用于大规模数据集,并且在人工和真实的数据集上取得了比现有模型更好的性能。
- ECCV追踪野外一切
本研究针对大规模多目标跟踪 (MOT) 数据集中存在的类别过多、类别相似等问题,提出了一种新的评价指标 Track Every Thing Accuracy (TETA),并介绍了一种新的跟踪器 Track Every Thing trac - EMNLP语言污染现象解释英语预训练模型的跨语言能力
本文研究预训练语言模型在跨语言转移方面的表现,发现常见的英文预训练集中包含大量非英文文本,即使数量仅占不到 1%,也会导致大规模数据集中有数亿个外语词汇。作者还展示了即使是这些少量的非英文数据,也能够促进模型在目标语言上的跨语言转移,并且目 - ICLR针对原子模拟的十亿参数图神经网络训练
本文提出的图并行算法可在多个 GPU 上分布输入图,从而实现训练数十亿个参数的大型 GNN, 该方法在大规模开放铂族催化剂的数据集上取得了新的最先进结果。