从遗传漂变理解到用于分布估计算法的智能重启机制
提出一种基于紧凑遗传算法的 EDA 方法,只更新经历考虑后的信息,证明了该方法可在近线性时间内优化 OneMax、LeadingOne 和 BinVal 等基准函数,对于其他 EDA 和进化算法还未有类似的结果。同时证明了其他两种算法无法在多项式时间内优化 OneMax。
Jul, 2018
本研究提出了一种单变量分布估计算法的通用公式,该算法自然地包含了三种经典的单变量估算算法和一种具有最大 - 最小蚂蚁系统的变化,该公式的统一描述使得其更容易进行分析,并提供了基于种群的增量学习和遗传漂移的具体应用,该模型包括比现有算法更有效的 EDA,并对 OneMax 和 LeadingOnes 基准进行了评估。
Jun, 2022
本研究将生成性神经网络 RBM 集成到 EDA 中,通过实验发现 RBM-EDA 在解决组合优化问题时对于大规模或复杂问题具有更快的 CPU 时间,更少的建模时间,表明使用生成性神经网络用于组合优化具有潜在的优势。
Nov, 2014
本文研究如何在多目标进化算法中引入随机性,证明了将确定性的种群更新机制替换为随机性机制可以使算法的运行时间指数级减少,实验证明了这个提出的方法的有效性。
Jun, 2023
该研究提出了两种名为 “证据反转” 和 “适者生存抽样” 的模拟算法,能够改善动态概率网络模型的模拟精度,并与其他模拟算法性能进行比较表明它们可以保持有界误差的特点。
Feb, 2013
我们提出了 Population Descent,这是一个专注于超参数优化的模因算法。通过自适应的 m 优秀个体选择方法和基于标准化适应度的随机化方案,我们展示了这种算法在常见的基准任务上比复杂的现有算法提高了最多 13% 的性能。
Oct, 2023
提出了一种名为 Enhanced Langevin Diffusion with Restart 的采样算法,它通过在每次迭代中添加噪声并严格遵循反向 ODE 交替操作,以在速度和质量之间更好地平衡差异。实验表明,Restart 采样器在速度和准确性方面的表现均优于之前的 ODE 和 SDE 采样器。
Jun, 2023
我们引入了一个名为欺骗性领先块(DLB)的新基准问题,通过它来严格研究单变量边际分布算法(UMDA)在存在遗传上下文和欺骗的情况下的运行时间。我们展示了简单的进化算法(EA)优于 UMDA,除非选择压力 $\mu/\lambda$ 极高,其中 $\mu$ 和 $\lambda$ 分别为父代和子代种群大小,并说明 UMDA 在父代种群大小为 $\mu=Ω(\log n)$ 的情况下,预期将具有 $e^{Ω(\mu)}$ 的 DLB 问题运行时间,假设选择压力 $\frac {\mu}{\lambda} \geq \frac {14}{1000}$,而非精英 $(\mu,\lambda)~\text {EA}$ 的预期运行时间为 $\mathcal {O}(n\lambda\log \lambda+n^3)$ 且 $\mu/\lambda\leq 1/e$。这些结果说明了单变量 EDA 在面对现实世界问题中的欺骗和遗传上下文的固有限制。相比之下,实证证据揭示了双变量 MIMIC 算法在 DLB 问题上的效率。我们的结果表明,当优化问题具有一定程度的遗传上下文和欺骗性时,应考虑具有更复杂概率模型的 EDA。
Jul, 2019
该研究提出新的计算度量,以检验基于概率模型的进化算法中的模型构建难度,并使用估计的 Walsh 系数来评估估计分布算法在各种基准问题中的困难程度,结果表明,该算法可以准确地预测不同问题中的性能。
Feb, 2022