- 可合成化分子生成的 GFlowNets
通过在化学反应空间中操作,将生成模型扩展到小分子发现中,从而增加了搜索空间的大小,并保持候选分子生成的可合成性,同时对于预训练代理模型和 GPU 加速对接等多个 Oracle 模型都具有良好的表现。
- 基于 X 射线的科学应用的网络架构搜索
使用深度神经网络自动调优设计的 BraggNN 和 PtychoNN 模型,在 X 射线和电子衍射显微镜中,提升了布拉格峰检测和斑图重构性能,达到了 31.03%和 16.77%的准确度提升,模型尺寸分别减小了 87.57%和 12.82% - CVPR利用可解释性知识构建最优神经网络架构
通过对操作和体系结构模块的潜在嵌入与其所出现的架构的实际性能进行对齐,AutoBuild 能够为体系结构模块分配可解释的重要性评分,从而构建高性能的神经网络,无需进行搜索。通过对图像分类、分割和稳定扩散模型的实验,我们展示了 AutoBui - 多种人群交替进化神经架构搜索
通过将搜索空间转换为相互连接的单元,并顺序地搜索这些单元,然后对整个网络的上述搜索进行多次循环以减小先前单元对后续单元的影响,我们提出了 Multiple Population Alternate Evolution Neural Arch - DNA Family:使用区块级别监督增强权重共享的 NAS
通过将大的搜索空间模块化为小的搜索空间,并利用 DNA 技术开发了一系列模型,我们解决了 weight-sharing NAS 中的多个困境,如可扩展性、效率和多模态兼容性,并在一定计算复杂度约束下寻求不同深度和宽度的架构。广泛的实验评估表 - 基于改进海马优化器的全局优化和工程问题求解新方法
SHO 方法的改进版 mSHO 算法通过替换原始方法和引入新的局部搜索策略,强化了 SHO 的利用能力,提高了搜索效果,证明了 mSHO 算法在优化问题中的卓越性能。
- 超越遗憾:贝叶斯优化的几何度量
贝叶斯优化算法的效果评估依赖于遗憾度量,然而这些度量无法考虑查询点与全局解的几何关系,以及贝叶斯优化算法对搜索空间的开发和探索能力。为解决这些问题,本研究提出了四个新的几何度量,并通过集成额外参数来得到无需参数的指标形式。经实验证明,这些新 - 数学 NAS:如果单元在数学架构设计中有作用
利用数学规划,MathNAS 提出一种分治策略用于神经架构搜索,通过计算可能模块的表现来直接预测网络性能,从而大幅降低了网络性能评估的复杂性。
- 使用 GPT-4 进行图神经网络架构搜索
利用 GPT-4 嵌入 GNAS 中进行图神经架构搜索,通过设计一类用于引导 GPT-4 生成图神经结构的提示信息,提供了更准确且收敛迅速的图神经网络,实验结果表明相比最先进的 GNAS 方法,嵌入 GPT-4 的 GNAS 取得了更好的性 - 从第一原理出发的更一般的诊断理论
通过将 Reiter 理论泛化为对任何类型系统和诊断的无知论,我们定义了基于首要原则的最小诊断,它将最有可能的诊断候选集合在一个假设搜索空间中。在相对温和的假设下,我们的算法能够正确计算首选的诊断候选集合。尽管搜索空间不再是幂集,与 Rei - ICDARTS:改进循环 DARTS 的稳定性和性能
这项研究介绍了对 Cyclic DARTS (CDARTS) 的稳定性和泛化能力的改进。我们提出的 ICDARTS 是一种改进的方法,它通过消除评估网络权重对搜索网络权重的依赖,并修改离散化搜索网络的过程,以保留这些操作在最终评估网络中。我 - 高效且可解释的图神经网络架构搜索:蒙特卡洛树搜索
图神经网络(GNN)广泛应用于各个领域的数据科学任务,但为了设计 / 选择最佳的 GNN 结构,研究人员和实践者需要付出大量的努力和计算成本。为了节省人力努力和计算成本,我们提出了一种高效且可解释的图神经架构搜索方法(ExGNAS),它包括 - 局限严重应用中的自动机器学习
本文提出了一种名为 Caml 的元学习方法,可以自动适应其自身 AutoML 参数,以优化特定任务的高性能管道,并可以考虑用户定义的应用约束条件,以获得满足约束条件的高预测性能的管道。
- 多角度融合结构搜索模拟人类认知的情感识别
本研究提出了一种多个视角融合框架,旨在解决语音情感识别中的多维感知问题,并能自动调整信息融合策略。通过利用连续模型和量化模型的优势,实现全面捕捉语音情感信息。
- 基于概率的模块化持续学习框架
PICLE 是一种模块化的持续学习(CL)框架,使用概率建模加速搜索,在不同类型的转移中较好地表现,应用于两个基准测试套件表现优异。
- 进一步利用指令二元组缩小归纳式编程的搜索空间
通过考虑直接指令 - 指令应用作为搜索启发式的附加内容,本文将指令子集方法扩展到归纳编程中,分析了大量开源代码中指令二元组的频率分布,并证明指令二元组可以用于限制搜索期间的指令选择,从而显著减少搜索空间的大小,从而增加了使用基于搜索的归纳式 - IJCAIGeNAS: 具有更好泛化性能的神经架构搜索
本文探讨了一种新的神经架构搜索度量方式,发现损失曲面的平整度可以预测神经网络架构的泛化能力,通过在不同的搜索空间进行评估,提出的方法相对于现有的 NAS 方法表现更好,并且在数据分布偏移以及目标检测或语义分割等任务中具有稳健的泛化能力。
- 引导进化神经网络架构搜索与高效性能估计
该论文提出了一种名为 GEA 的新型引导神经结构搜索方法,该方法使用零代理估计器在每个代际初始化阶段生成和评估多个架构,然后从现有架构生成多个后代并同时驱动探索和剪枝,结果表明 GEA 在多个数据集上都取得了最先进的结果。
- 通过可扩展的搜索空间分解实现高效的端到端自动机器学习
VolcanoML 是一个可扩展的 AutoML 框架,通过将大型搜索空间分解为较小的空间单元,提高了搜索空间分解的表达能力并找到比 auto-sklearn 更高效的分解策略。
- 分割的计算复杂性
本研究采用计算水平建模和复杂性分析方法,以分割作为案例研究,证明了关于搜索空间大小和困难性方面的两组数学结论,旨在评估现有关于亚能力的观点,特别是涉及认知系统能力的未经审查的直觉假设,以确保概念化不会误导后来出现的实证问题。