离散去噪扩散方法在整数分解中的应用
本文旨在综述深度神经网络计算中数值量化的方法和优缺点,囊括了使用固定整数值的优点、及降低4x到8x等现实应用中的实际结果,以及占用更少的内存和降低延迟的潜力。
Mar, 2021
该论文探讨了在先验概率和一个基于$x$和$y$的不等式约束条件下利用高维数据推断潜在结果。通过使用一个独立训练的去噪扩散生成模型和不同的不等式约束,该方法能应用于各种不同领域的任务,例如条件生成、图像分割以及求解组合优化问题等。
Jun, 2022
本文介绍了一种基于深度学习的概率算法,用于整数因式分解,通过将整数因式分解问题转化为二元分类问题,基于生成大量伪随机素数的容易程度,我们生成了具有足够规模的训练数据集,介绍了算法,总结了一些实验并分析了这些实验的不足之处,最终呼吁其他人来重现、验证并改进这种方法,使其成为一种实用且可扩展的因式分解算法。
Jul, 2023
利用深度神经网络来近似评分函数的效率在基于扩散的生成建模中进行了研究,我们观察到评分函数可以通过变分推断去噪算法在图模型中得到较好的近似,同时这些算法适用于高效的神经网络表示,通过示例验证了这一观察,并结合离散化误差界限为基于扩散的生成建模提供了有效的样本复杂度界限。
Sep, 2023
通过基于分数的逆扩散算法生成的高质量样本提供了证据,表明尽管遭受维度灾难的困扰,用于降噪训练的深度神经网络(DNN)可以学习高维密度。然而,关于训练集记忆化的最近报导引发了一个问题,即这些网络是否正在学习数据的“真实”连续密度。在本文中,我们展示了在非重叠的数据集子集上训练的两个降噪DNN学习到几乎相同的评分函数,从而学习到相同的密度,并且只需要非常少的训练图像。这种强大的泛化表明DNN架构和/或训练算法中的强大归纳偏差与数据分布的特性相一致。我们通过对这些内容进行分析来证明这一点,证明了去噪器在适应底层图像的基础上执行了一个收缩操作。对这些基础的检查揭示了轮廓线和均匀图像区域中的振荡谐波结构。我们通过证明即使在训练于低维流形等图像类别的情况下,这些经过训练的去噪器也会生成这种几何自适应谐波表示来表明它们在归纳偏差方面具有偏好。此外,我们还展示了当在已知最优基础为几何自适应谐波的常规图像类别上进行训练时,网络的去噪性能接近最优。
Oct, 2023
提出了一种用于简化离散扩散的数学简化方案,同时还提出了一种能够精确和加速采样的简单公式,并通过创建一个统一的模型,简化离散扩散的前向和后向概率计算,取得了在现有数据集上优于其他方法的效果。
Feb, 2024
通过引入一种可以上界反向Kullback-Leibler散度且避免要求确切样本似然的损失函数,本研究提出了一种能够解决在不依赖相应训练数据的情况下从难以处理的离散集合中进行采样的问题的方法,并展示了该方法在无数据组合优化中实现了最先进的性能。
Jun, 2024
我们提出了一种新颖的框架,通过对整数规划实例和解决方案之间的关系进行对比学习,以生成完整的可行解,其质量可与Gurobi的最佳启发式解相媲美,且在整个数据集上表现优于最先进方法,提高了与最优值之间的差距,并且在所有数据集上保持超过99.7%的可行比率。
Jun, 2024
本研究解决了现有扩散模型在低比特量化后图像质量下降的问题。提出了一种有效的浮点量化方法,能够在8位浮点量化下实现与全精度模型相当的图像质量。该方法的应用对扩散模型的推理效率和图像质量都有显著的提升潜力。
Aug, 2024