关键词hyperparameter configurations
搜索结果 - 6
- 结合超参数自动优化和奖励形状
深度强化学习在过去几年取得了显著进展,但是即使对于专家来说,找到适当的超参数配置和奖励函数仍然具有挑战性并且性能严重依赖于这些设计选择,因此我们提出了一种方法来同时优化超参数和奖励函数,实验证明综合优化可以显著改善性能,在一些环境中比基准性 - 经典 GNN 是强基线:重新评估 GNN 用于节点分类
在本研究中,我们对三种经典的图神经网络模型(GCN、GAT 和 GraphSAGE)与图转换器(GTs)进行了全面的实证分析,发现之前对 GTs 的声称过于夸大,而稍作超参数调整后,这些经典 GNN 模型在 17 个多样化数据集中达到了最新 - 贝叶斯优化遇上自蒸馏
BOSS 框架结合 Bayesian optimization 和 Self-Distillation 方法,通过利用先前任务的预训练模型和观察结果,显著提高了各种任务的性能表现。
- ICML模型集成:对多个微调模型的权重进行平均可提高准确度且不增加推理时间
通过平均训练以不同超参数配置微调的模型,提高现有模型的性能和鲁棒性,从而在多个图像分类和自然语言处理任务中达到新的最先进技术水平。
- 联邦学习中评估渗漏攻击的框架
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新 (例如,本地梯度或权重更新向量) 来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算 - KDD利用地理位置信息预测银行卡使用情况
该研究探讨了基于梯度提升决策树、超参数配置和地理位置信息的银行卡使用的检测方法,在任务一上取得了最好的表现,在任务二上取得了第四的好成绩。