- 概率回归树集成
该研究使用基于树的集成方法,如随机森林、梯度提升树和贝叶斯增加回归树,在许多应用和研究中成功地用于回归问题。本文研究了概率回归树的集成版本,通过将每个观测分配到相对应的概率分布区域,为目标函数提供平滑逼近。我们证明了所考虑的概率回归树的集成 - 二元分类中的挑战
通过最大最小问题设计这个变分问题的目标函数,我们将二元分类器的最优问题视为一个变分问题,并推导出 SVM 是这个变分问题框架的一个特例。然而,对于非线性分类,提出的变分问题在欧氏距离方面存在一些限制,因此如何设计更合适的目标函数来寻找最优二 - 大规模稀疏网络中的社群筛选
在研究中,我们介绍了一种适用于大规模稀疏网络的直观客观函数来量化聚类结果的质量,并且通过模拟网络的优化试验和基准问题的应用来证明了这种方法的实用性和准确性。
- 一种用于深度学习雷达应用的新型微多普勒相干损失
使用深度学习技术针对微多普勒应用进行预测时,引入微多普勒相干损失以优化模型,实验证明该损失有助于提高模型的噪音鲁棒性。
- Iso-Diffusion:使用加性高斯噪声的各向同性改善扩散概率模型
通过利用附加噪声的各向异性作为目标函数的约束条件,提高了去噪扩散概率模型(DDPMs)的保真度指标。
- 通过黑盒模型实现鲁棒的车辆跟随动力学建模:方法、分析与建议
该研究评估了黑盒模型(如 LSTM)的目标变量选择,并比较了它们与经典车辆跟随模型的最佳目标变量的异同,结果发现目标变量的最佳选择与黑盒模型的目标函数和向量空间相关。
- ICLR发现具有时间感知的强化学习算法
最近的元学习进展使得可以自动发现由代理目标函数参数化的新型强化学习算法。本文提出一种对两种现有目标发现方法进行简单扩展的方案,允许在智能体的训练过程中动态更新其目标函数,从而获得具有表达能力的进度表,并增加在不同训练时间范围内的泛化能力。
- 从相关组件的可解释方差到无正交约束的 PCA
通过引入新的目标函数,衡量数据矩阵 A 相关分量 Y=AZ 所解释的方差部分,本文在对已有定义的解释方差的数学和数值特性进行全面研究的基础上,提出了两个最适合用作消除正交性约束的 block PCA 公式的目标函数。
- 基于配对偏好的公平主动排名
透过自适应调用两两比较来研究可能近似正确且公平(PACF)排名问题,目标是根据我们提出的公平目标函数找出一个(ϵ,δ)-PACF 排名。我们使用的目标函数要求最小化组的误差 lq 范数,其中组的误差是组内所有项误差的 lp 范数,p,q≥1 - 从函数到分布建模:离线优化的 PAC - 生成方法
该研究论文探讨了离线优化的问题,其中目标函数除了一系列 “离线” 数据示例外是未知的。与近年来关于将各种机器学习技术应用于离线优化问题的研究相比,大多数工作集中于学习未知目标函数的替代模型,然后应用现有的优化算法。与学习未知目标函数并优化它 - 重温知识蒸馏在分布偏移下的应用
知识蒸馏将大模型的知识转移到小模型上,近年来取得了显著成就。然而,对于知识蒸馏在分布转移方面的机制,研究还很少。本文通过在转移情况下重新构建目标函数,重新思考了知识蒸馏的范式。在真实情景下,我们提出了一个统一而系统的框架,对两个常见的分布转 - 参数化的凸辅助目标函数逼近在摊还优化中的应用
该论文提出了一种参数化凸次级法(PCM)方法,用于近似于协调优化中的目标函数。通过将目标函数的近似器表示为 PCM 和非负间隙函数之和,即优化变量中的 PCM 凸函数下界限制了目标函数的近似器。该提出的目标函数近似器是连续函数的通用近似器, - infoGAN 的二层网络的目标函数等式特性
在无监督生成对抗网络 (infoGAN) 中,判别器和生成器通过最大化互信息函数来解决最小最大问题。研究表明随着判别器和生成器样本数量趋近于无穷大,infoGAN 中的两个目标函数变得等价。通过考虑经验和总体版本目标函数之间的差异,并结合判 - 通过不变性和冗余减少理解语音表示的自监督学习
本研究探讨了不同形式的 Barlow Twins(BT)目标函数对语音数据下游任务性能的影响,提出了带有归一化潜变量的 Modified Barlow Twins(MBT)以实现尺度不变性,并在说话人识别、性别识别和关键词检测任务中进行了评 - 基于多项式模型的黑盒目标优化
通过拟合多项式替代模型到目标函数,通过迭代更新模型并利用预期改进的探索和利用平衡,提供模型的不确定性估计的 PMBO 是一种成功竞争,并在某些情况下甚至超越其他算法的黑盒优化方法,可广泛应用于各个领域。
- LOAF-M2L: 歌词生成器的歌词和格式化的联合学习
本文提出一种新的方法 LOAF-M2L 来生成旋律与歌词之间兼容的歌词,并引入音乐学研究中的信息来帮助模型学习旋律的细粒度格式要求,在主观评估中相对于现有最先进的旋律到歌词生成模型显示出 63.92%和 74.18%的相对改进。
- 平滑 f - 散度分布鲁棒性优化:指数速率效率和无复杂度校准
数据驱动的优化中,基于最糟情况分析的分布式鲁棒优化可以实现对准确解性能的统计界限,该方法基于通过适当的距离优化的 KL - 发散度,并且相应的校准不需要任何复杂性信息。
- 在取证调查下发现机器学习黑盒的有意义分布
本文介绍了使用全面的语料库选择有意义的分布来解决神经网络模型数据域不明的问题,通过考虑选定样本的模型功能属性和语义,使用一个有效的目标函数,以及一个能够有效地搜索所有可能子集的算法。实验表明,该方法可以有效地克隆给定模型,并提高其准确性。
- ICML深度图表示学习与优化用于影响最大化
该研究提出了一个名为 DeepIM 的新框架,旨在解决学习为基础的影响最大化(IM)方法所面临的困难,该方法可以数据驱动地、端到端地学习多样化的信息传播模式,并设计了一个新的目标函数来推断出在灵活的基于节点中心性的预算约束下的最优种子集。
- 无梯度学习量子神经网络优化
本文提出了一种新颖的元优化算法,通过对量子电路的参数进行元优化,从而最小化目标函数,避免了经典梯度优化的局限性,通过实验和理论论证,在不同数据集上,相比现有基于梯度的算法,该方法可以更快更稳定地达到更好的效果。