模拟引导的神经组合优化梁搜索
为了解决程序综合中搜索空间膨胀的问题,我们提出了 CrossBeam,它训练一个神经模型来学习自底向上的搜索策略,从而更加高效地探索程序空间。我们在字符串操作和逻辑编程领域实验后发现,CrossBeam 学会了高效搜索,相比最先进的技术,它探索了更小的程序空间。
Mar, 2022
通过结合行为克隆和增强学习方法,本文简化了端到端的神经组合优化训练过程,采用随机抽样解决方案并利用概率策略改进来提高模型性能,在旅行推销员问题和车辆路径问题方面取得了令人满意的结果,并应用于作业车间调度问题,超越现有的方法。
Mar, 2024
提出一种名为 Diverse Beam Search (DBS) 的算法,以优化多样性目标解码出一系列多样化的输出,旨在解决 Beam Search 算法在复杂人工智能任务解码过程中无法准确捕捉复杂任务本质的问题,并在图像字幕生成、机器翻译和视觉问答生成等任务中取得更好的性能表现。
Oct, 2016
提出了一种结合深度符号优化学习框架的新型深度符号优化节点选择模块(Dso4NS)的方法,该方法通过数据驱动的方法在高维离散符号空间中搜索数学表达式,并将性能最佳的数学表达式纳入求解器,实现快速推理和高解释性。实验结果表明,Dso4NS 在学习高质量表达式方面表现优于现有方法,在 CPU 机器上达到与最新的 GPU 方法相当的性能。
Jun, 2024
设计了一种名为 COMBHelper 的神经方法,借助图神经网络(GNN)识别有前景的节点,压缩搜索空间并提高传统组合优化算法的效率;包括知识蒸馏模块和问题特定增强模块以进一步提升效果,实验证明传统算法利用 COMBHelper 至少快于原始版本 2 倍。
Dec, 2023
本文介绍一种名为 NESBS 的新型神经集成搜索算法,可从 NAS 搜索空间中有效且高效地选择表现优秀的神经网络集成,具有在实践中优于 NAS 算法的性能表现,而且与同类算法相比成本相当。
Sep, 2021
本文提出了一种基于模拟退火的启发式搜索算法,在搜索空间上通过展开马尔可夫链到递归深度树来寻找最优解,利用连续表示的自旋状态和正则化项以及振荡子的动力学来探索选定的树节点周围的搜索空间,并在 NP - 困难问题(MAX-CUT)上验证了该算法与半定规划、模拟退火和相干 Ising 机的比较实验中能够在较少的迭代次数内获得更优解的优越性。
Mar, 2022
本文提出一种基于赌博机算法的层次化批量搜索(HBBS)框架,用于在生物学中的大型批量实验中最大化信息,通过在嵌入空间中分配批次选择来实现不同结构元素的广泛探索和利用。
Jul, 2020