- 联合神经情境强化学习中的不确定性
通过引入神经网络增强情境强化学习,本文提出了一种适用于大规模推荐系统的联合神经情境强化学习解决方案,该方案将所有推荐物品集成到一个单一模型中,并通过理论分析和实验结果揭示了超参数调整过程中的不确定性,为离线训练和在线部署提供了帮助。
- 交叉验证的离策略评估
本文研究了离策略评估中的估计器选择和超参数调优问题,并展示了如何使用交叉验证来解决这一问题,从而验证了交叉验证在离策略评估中是可行的。
- 顺序学习环境下的 COBRA 变体
该研究论文介绍了基于不同变化的组合回归策略的多变量时间序列预测的创新方法。我们使用特定的数据预处理技术,对预测行为产生了重大变化。通过两种类型的超参数调优方法,贝叶斯优化(BO)和常规网格搜索,我们比较了模型的性能。我们提出的方法在八个时间 - 克服图对比学习评估中的陷阱:朝着综合基准的方向
我们的研究全面审视了自我监督学习方法的缺点,并提供了关于超参数选择和下游任务评估对图对比学习方法的影响的新观点。此外,我们引入了一个改进的评估框架,旨在更准确地评估图对比学习方法的有效性、一致性和整体能力。
- 选择泄露隐私的机制:重新审视私密选择和超参数调整的改进结果
在超参数调整问题中,提供了关于当前隐私分析是紧密的一般意义上的证实,然而,当专门研究超参数调整问题时,密切性不再成立。此外,通过隐私审计发现了当前理论上的隐私边界与经验边界之间的实质差距,并提供了改进后的隐私结果以及比以往分析更具普适性的结 - 可扩展且无超参数的非参数转移适应与条件采样
我们提出了一种新的非参数方法来进行协变量转移适应,避免了权重估计和超参数调整,并实现了样本规模几乎线性的运行时间,同时保持了与参数方法相同的收敛速度。
- 机器学习在持续集成中的应用的系统文献综述
本研究对机器学习在持续集成中的应用进行了系统综述,探讨了其数据工程、特征工程、超参数调整、评估方法等方面。研究提供了研究者和从业者在持续集成中应用机器学习方法的有价值的见解,强调在这一领域需要进一步研究。
- 减少实际政策优化循环时间调整的成本
探讨了在一个给定的任务中选择 action-cycle 时间时,学习算法的超参数是否需要重新调整,并进行了相应的实验和对比研究,提出了一种基于 cycle time 设置超参数的新方法,以避免针对每个 cycle time 进行昂贵和广泛的 - 对抗性鲁棒模型的超参数调整
本文研究在对抗环境下如何调整超参数,通过实验发现需要在标准和对抗训练阶段独立地调整超参数,提出利用廉价对抗训练和多保真度优化器来降低鲁棒性模型的超参数调整的成本。
- 压缩、泛化和学习
本文提出了一种新的理论,可以控制压缩函数(称为 “风险” 的压缩函数的改变概率),并证明了压缩集合的基数是风险的一致估计量的条件。结果可用于不需要先验知识的全面无偏配置中。这些结果不仅可用于完全了解驱动方法的信任,而且在学习技术中,还可以作 - 光学处理单元压缩聚类
本论文探讨了利用光学处理单元(OPU)计算随机傅里叶特征来进行草图处理,并将整个压缩聚类流程调整到该设置。我们还提出了一些工具来帮助调整压缩聚类的关键超参数。
- 层次协作超参数调整
本文演示了如何利用多智能体系统开发一个分布式技术,用于确定任意集合的超参数的近似最优值,并在机器学习和全局函数优化应用中进行了研究。研究表明,在更高的维度下,所提出的模型在分类误差和函数评估方面都优于其底层随机调优策略。
- 通过尺度解锁高精度差分隐私图像分类
本文主要研究采用差分隐私保护方法进行深度学习的训练,并在调优超参数以及利用一些技巧来提高信号传播和收敛速度的基础上,在图像分类任务中获得了新的最高精度,证明了采用过参数化模型的 DP-SGD 方法也可以实现更好的性能,这是在私有和非私有图像 - ICCV调参或不使用:基于数据效率的图像分类基准测试
本文设计了一个基准测试,用于数据有效的图像分类。作者重新评估了 8 种最新的数据有效的深度学习方法,并发现基于交叉熵的基线模型在对数据集进行调优后表现竞争力颇高,甚至优于特定专业方法。
- ASFGNN: 自动分离 - 联合图神经网络
本文提出了一个自动化的分离式联邦图神经网络学习范式 (ASFGNN),该范式包括 GNN 的训练和超参数调整两个主要组成部分,通过分离 - 联邦 GNN 学习模型和贝叶斯优化技术解决了数据的 Non-IID 问题和超参数调整的耗时问题,实验 - 通过表示匹配和自适应超参数实现鲁棒联邦学习
本文提出了一种解决分散式学习中数据分布不一致、超参数调整等问题的两种方案,分别是特征匹配方案和自适应超参数调整方案,并在多个基准测试中证明,这两种方案可以显著提高性能和训练鲁棒性。
- 深度神经网络高准确率训练的学习率政策解析
本文基于 LRBench 系统对 13 种学习率函数以及相应的学习率策略进行研究,提出了一组评估和选择学习率策略的度量标准,包括分类置信度、方差、成本和鲁棒性,表明 LRBench 辅助用户选择好的学习率策略,避免训练深度神经网络时出现不良 - 使用正交数组调整深度神经网络的超参数优化
本文介绍了一种高效的正交数组调整方法 (OATM),用于深度学习超参数调整,通过将 OATM 应用于循环神经网络和卷积神经网络等两种流行的深度神经网络结构进行了说明,并将 OATM 方法与其他超参数调整方法进行了比较。实验结果表明,相对于人 - ENCORE:使用卷积神经机器翻译的集成学习进行自动程序修复
ENCORE:一个使用卷积神经网络和集成学习的自动程序修复技术,可修复四种常见编程语言中的 67 个缺陷,并在两个公共基准测试中修复了 42 个缺陷。
- 置换加权
本文介绍了一种基于排列加权的方法,使用标准二元分类器来估计平衡权重,以实现观测因果推断。通过这种方法可以估计多种现有平衡权重,同时允许基于分类器损失的方法直接比较,并使用交叉验证进行超参数调整。实证评估表明,排列权重相对于现有的方法表现更为