基于 Walsh 系数的新度量方法,用于估计分布算法中的问题难度
提出一种基于紧凑遗传算法的 EDA 方法,只更新经历考虑后的信息,证明了该方法可在近线性时间内优化 OneMax、LeadingOne 和 BinVal 等基准函数,对于其他 EDA 和进化算法还未有类似的结果。同时证明了其他两种算法无法在多项式时间内优化 OneMax。
Jul, 2018
本研究提出了一种单变量分布估计算法的通用公式,该算法自然地包含了三种经典的单变量估算算法和一种具有最大 - 最小蚂蚁系统的变化,该公式的统一描述使得其更容易进行分析,并提供了基于种群的增量学习和遗传漂移的具体应用,该模型包括比现有算法更有效的 EDA,并对 OneMax 和 LeadingOnes 基准进行了评估。
Jun, 2022
论文提供了关于在 Wasserstein 损失下仅使用样本空间的测度性质和概率分布的弱矩假设,对于概率分布的估计的统计极小值率上下界的研究。
Feb, 2018
本文比较了一些经典的核方法和能量统计测试在不同类型的两组随机变量下的性能,发现在测试显著性差异和分布不同上,这些测试和基于第一时刻测试的特殊高维 t-test 有同样的功效。
Aug, 2015
该论文介绍了一种新的方法,使用少量参数化正交投影来近似分解高维分布的一维边际分布,以便于在生成式框架中实现深度学习。研究表明,该方法在标准图像综合基准和高分辨率图像和视频生成方面表现出优越性和最先进性。
Apr, 2019
本研究介绍了基于深度学习的一种小批量近似方法,用于在自动编码器和生成式对抗网络等现代生成模型中实现切片 Wasserstein 距离,以便在无监督情况下实现高分辨率图像和视频的生成,表现为当代最佳水平。
Jun, 2017
我们引入了一个名为欺骗性领先块(DLB)的新基准问题,通过它来严格研究单变量边际分布算法(UMDA)在存在遗传上下文和欺骗的情况下的运行时间。我们展示了简单的进化算法(EA)优于 UMDA,除非选择压力 $\mu/\lambda$ 极高,其中 $\mu$ 和 $\lambda$ 分别为父代和子代种群大小,并说明 UMDA 在父代种群大小为 $\mu=Ω(\log n)$ 的情况下,预期将具有 $e^{Ω(\mu)}$ 的 DLB 问题运行时间,假设选择压力 $\frac {\mu}{\lambda} \geq \frac {14}{1000}$,而非精英 $(\mu,\lambda)~\text {EA}$ 的预期运行时间为 $\mathcal {O}(n\lambda\log \lambda+n^3)$ 且 $\mu/\lambda\leq 1/e$。这些结果说明了单变量 EDA 在面对现实世界问题中的欺骗和遗传上下文的固有限制。相比之下,实证证据揭示了双变量 MIMIC 算法在 DLB 问题上的效率。我们的结果表明,当优化问题具有一定程度的遗传上下文和欺骗性时,应考虑具有更复杂概率模型的 EDA。
Jul, 2019
通过提出新的聚类特征和一种基于空间密度和概率方法的聚类算法,本研究在广泛的数据集上展示出较其他先进的基于密度的聚类方法更好的性能。
Oct, 2023