跨领域图数据缩放:扩散模型案例展示
通过扩散步骤,DiffAug 引入了一种新颖且高效的基于扩散的数据增强技术,以确保增强数据和原始数据在光滑的潜在空间中共享,从而通过无需标签、外部数据 / 模型或先前知识的约束来提高图像分类和聚类准确性,可适用于视觉和生物领域。
Sep, 2023
通过使用图像转图像的方法、以及预训练的文本到图像扩散模型将其参数化,解决了数据扩增过程中具有高级语义标注的动物种类等属性缺乏多样性的问题,并在少样本情境和杂草识别任务中得到实际应用。
Feb, 2023
本文系统评估了扩散模型生成图像的现有方法,并研究了新的扩展方式以评估它们对数据增强的益处。作者发现,将扩散模型个性化到目标数据的方法优于简单的提示策略,但使用扩散模型的训练数据,通过简单的最近邻检索程序,直接提高下游性能。此项研究揭示了扩散模型在数据增强方面的局限性,同时也突显了其在生成新训练数据方面的潜力,以提高在简单的下游视觉任务中的性能。
Apr, 2023
通过使用 DiffScaler,这篇论文提出了一种有效的扩展策略,使得单一预训练的扩散变压器模型能够快速适应不同的数据集,从而完成多样化的生成任务。
Apr, 2024
通过使用预训练的 UNet(或 transformer)扩散模型仅需适量的目标数据(甚至只有合成数据),在基础视觉感知任务中能够实现出色的可传递性表现,包括单眼深度、表面法线、图像分割、抠图、人体姿势估计等。
Mar, 2024
DistDiff 是一种基于分布感知扩散模型的有效数据扩充框架,通过构建分层原型来逼近真实数据分布,优化扩散模型中的潜在数据点,实现生成与目标分布一致的样本,从而在数据扩充任务中取得显著的改进。
Mar, 2024
使用对抗式对比学习提出了一种用于多个图领域的预训练模型,通过在拓扑结构上训练模型,并在评估时包含节点标签,我们展示了该模型在各种下游任务中与基准模型、未经训练的模型和非转移模型相比,性能相等或更好,包括在评估时使用节点标签,性能始终优于单个领域或非预训练模型。
Nov, 2023
通过 GraphControl 模块和先进的图结构预训练模型,解决了在不同图中转移预训练模型到下游任务时的可迁移性和特异性之间的困境,并在目标数据集上实现了 1.4-3 倍的性能提升。
Oct, 2023