- 一种适用于采样的实用扩散路径
提出使用膨胀路径的简单实现 Langevin 动力学,通过自适应步长来引导扩张路径,以比传统方法更好地完成一系列任务的抽样方法。
- 通过方差估计加速锐度感知最小化的有效梯度样本大小
通过采用自适应采样方法基于 PSF 变化的原则,本文提出了一种简单且高效的采样方法,以显著加速模型优化过程中的计算速度,并在广泛的网络架构上实现了与 SAM 相当的最新准确度。
- 扩散模型中的公平采样通过切换机制
通过使用属性交换机制的公平度感知采样方法,扩散模型在生成公平数据和保持生成数据效用两个关键方面具有有效性。
- 离散概率流通过最优传输的构建
本文旨在建立离散扩散模型的概率流动基本理论,从而定义符合最优运输原理的离散概率流动,并提出一种超越以往的离散扩散模型的新型采样方法。通过在合成玩具数据集和 CIFAR-10 数据集上的广泛实验证实了所提出的离散概率流动的有效性。
- ACLinfoVerse: 一种具有多维元信息的数据集特征化通用框架
这篇论文提出了 infoVerse,一个基于模型驱动元信息的通用框架,用于数据集表征。它提供了一个新的特征空间,可以有效捕捉数据集的多维特征,并揭示了原始语义空间中不明显的数据集特征区域,可以指导用户(或模型)在探索、评估或注释时专注于哪些 - 使用最优边界条件解决扩散常微分方程以实现更好的图像超分辨率
通过有效控制扩散模型回流过程中的随机性来提高预训练图像超分辨率模型的采样质量,在边界条件的选择上,我们通过对整个空间的高效探索来获取近似最优边界条件,并且通过我们的方法进行的采样结果质量要优于现有方法的随机结果。
- 通过推测解码从 Transformer 中实现快速推断
本文提出了一种名为 “speculative decoding” 的算法,通过逐步并行地计算,采样自动回归模型可更快,同时采用了采样方法和一些新的技术,使得不改变分布的情况下,从大模型中精确解码变得更快,从而实现了不需要重新训练或架构更改即 - 零样本语音调制用于去噪扩散 TTS 模型
本文提出了一种新的方法,通过采样识别新目标的自然语音数据,并在推理期间利用加噪扩散语音模型生成具有目标讲话者相似声音的音频,而不需要进行任何训练步骤。
- CVPRFP-NAS: 快速概率神经架构搜索
提出了一种自适应于分布熵的采样方法,从而实现快速的多元空间神经体系结构搜索,成为 FP-NAS。通过 FP-NAS,可以使搜索空间变得更大、更深、更准确,速度比其他方法快 2.1 倍 - 3.5 倍,并且可以直接搜索高达 1.0G FLOP - Gibbs 采样收敛:坐标 Hit-and-Run 快速混合
本文研究高维分布的取样方法,提出了基于 Gibbs Sampler 方法的 Coordinate Hit-and-Run 算法,在凸边界的范围内取样效率高且保证收敛。
- 医学图像分析的在线主动深度学习 (O-MedAL)
本文介绍了一种新的在线主动深度学习方法,在医学影像分析中取得了显著的性能提升,通过新的采样方法和在线学习,只需使用 25% 的标注数据,就能使深度网络的精度提高 6.30%,在二分类和多分类任务中也展现出很好的鲁棒性。
- 最优加权最小二乘法
从理论和数值两个角度研究了使用加权最小二乘近似方法在一般的逼近空间上进行函数重建的问题,证明了在一些条件下可以获得稳定性和最优的精度,并提出了一种采样方法以生成独立于张量积型的最优度量的样本,其中逼近空间可以是高维的多项式类型空间,其应用于 - WarpLDA:一种 O (1) 高缓存效率的潜在狄利克雷分配算法
本文开发了 WarpLDA 算法来处理 Latent Dirichlet Allocation (LDA) 中的内存访问效率问题,并通过多种测试得出 WarpLDA 相比现有算法在速度上更具优势,用户可以在数小时内从数亿个文档中学习高达一百 - 非渐进式 Langevin 算法的收敛分析
研究了一种基于欧拉离散化的采样方法来逼近正态化后的概率密度相对于勒贝格度量的目标分布,通过分析欧拉离散化中步长的变化,获得了总变异距离下的收敛界限,并着重介绍了该方法在高维情况下的应用及维度依赖性,扩展了 Dalalyan 2014 的结果 - Panther:大规模网络中快速的 Top-k 相似度搜索
该论文提出了一种基于随机路径的取样方法,可准确估算顶点之间的相似性,通过实验证明该算法能够以比现有方法快 300 倍的速度在网络中获取任何顶点的前 K 个相似顶点。