- 使用概念器实现循环神经网络的自适应控制
本文展示了通过将网络的某些部分保持适应性,即使在训练之后,增强了其功能和稳健性,并且展示了适应性网络在插值、网络部分退化稳定化和输入扭曲鲁棒性方面的计算功能,同时强调了适应性网络在机器学习中的潜力,使其不仅能学习复杂模式,还能动态调整以适应 - 针对条件变化下的昂贵实验与模拟开发一种实用的贝叶斯优化算法
在变化环境下,该研究扩展了贝叶斯优化方法,通过在可控和环境变量上拟合全局模型,在测量到不可控变量的条件下仅优化可控参数,以提高实验效果。
- AAAI高斯过程和贝叶斯探索的域不变学习
高斯过程的领域不变学习算法(DIL-GP)使得预测在合成和真实的数据集上具备优越性;DIL-GP 贝叶斯优化方法在四旋翼 PID 参数调整实验中展现出有效性。
- KDD面向变化环境的公正可分离在线学习
本文提出了一种基于稀疏机制变化假设的在线学习算法,以实现模型的公平性,并引入长期公平约束的惩罚来评估生成的模型参数序列。在真实世界数据集上的实证评估证明了该方法在模型准确性和公平性方面的先进性。
- KDD适应性公平感知在线元学习在变化环境下的应用
本文提出了一种针对不断变化的环境的公平在线学习框架 FairSAOML,通过添加长期公平性约束来构建新的遗憾度量 FairSAR 和新的自适应公平在线元学习算法,提高分布不一样时的性能,同时对累积公平性约束和损失遗憾度提供了亚线性的理论上限 - ICML不变祖先搜索
本文提出了一种基于不变性的因果推断方法 - 最小不变性算法,通过构建潜在祖先节点集合对后续分析产生指导作用,本算法在理论上和实地数据上均获得了有效结果。
- Panoptic Multi-TSDFs:在线多分辨率体积建图和长期动态场景一致性的灵活表示
本研究提出了一种新的体积多分辨率建模方法,可以有效地处理大型动态环境中的机器人和其他代理之间的交互,并保持其语义一致性和准确性。
- ICML部分检测智能交通信号控制:环境适应
本研究旨在探究强化学习算法在 PD-ITSC 中应用的可行性及其应对瞬态变化场景的效果,结果表明相较于基于值函数的算法,基于策略的算法对于应对瞬态环境变化更加有效。
- 多人赌博机:对抗情形
设计了第一个能够在任意变化的环境中工作的多人赌博算法,其中武器的损失甚至可能是由对手选择的,同时解决了 Rosenski、Shamir 和 Szlak(2016 年)提出的一个悬而未决的问题。
- ICML在线自适应主成分分析及其扩展
该研究提出了适用于在线主成分分析(PCA)和方差最小化的自适应算法,拥有亚线性自适应遗憾保证并能够适应不断变化的环境。
- 利用硬币投注改进强适应在线学习
本文提出了一种新的无需额外参数的在线学习算法,适用于不断变化的环境,并获得了至少 sqrt (log (T)) 倍于已有算法的强适应性遗憾界。经实验证明,在专家建议和度量学习场景中,我们的算法优于现有的最先进方法。