- 高效的双阶高斯过程回归 —— 自动核搜索和子采样
通过引入灵活的两阶段高斯过程回归框架、自动核搜索算法、子采样启动策略和精确与可伸缩两种方法,本研究提出了一种泛用框架来解决 GPR 中的表示偏差、核函数错误和超参数错误问题,并在真实世界数据集上进行了广泛评估,验证了方法的鲁棒性和精确性。
- 量化逆强化学习对错误规范的敏感性
逆向强化学习(IRL)的关键问题是行为模型的错配性对结果的影响,本研究对此进行敏感性分析,并分析参数值和模型参数错配对结果的影响。
- 近确定性回归中的规范误差不确定性
前向论合理化了模型的泛化错误上界,为学习提供了健壮的 PAC-Bayes 边界。然而,已知损失的最小化会忽略错误规范化,在此情况下模型无法完全复现观测结果。我们分析了近确定、错误规范化和欠参数化替代模型的泛化错误,这是科学和工程中广泛相关的 - 自适应线性二次控制的非渐进遗憾分析及模型误差
对于自适应控制中的预先训练策略,我们研究了一个自适应线性二次控制问题,在这个设置中学习者具有动力学的一组基矩阵的先验知识。我们提出了一种使用这个先验知识的算法,并对通过与系统进行 T 次交互后的预期遗憾给出了上界。
- 贝叶斯反问题鲁棒 A - 最优实验设计
为贝叶斯反演问题设计最优实验设计方案的一个高效算法方法,使最优设计对反问题的要素的错误估计具有鲁棒性。具体而言,我们考虑一种针对不确定或错误估计参数的最坏情况方法,提出了一种优化这些目标的算法方法,进行了深入的数值实验,以验证和分析所提出的 - 语言代理的对齐
人工智能需要与人类价值观保持一致,本文研究了自然语言代理程序中存在的一些行为问题,重点讨论了系统设计者意外错误规定可能导致的一些问题,如使用欺诈或操纵性语言,以及避免这些问题的一些方法。
- ICML利用离线回归预测器适应上下文 Bandit 中的错误规格化
提出了一种简单的上下文 Bandit 算法族,该算法族可以通过当有证据表明错配错误导致遗憾增加时返回良好的安全策略来适应错配误差,而不需要像在线或约束回归神谕一样更健壮的神谕。
- IJCAI奖赏推断中的选择集错误规范化
本篇研究通过引入选择集调整分类,探讨机器人从人类反馈中推断出奖励函数时选择集被错误设定的后果对性能的影响,并发现部分错误设定并不影响结果,但在某些情况下,失配会极大地损害机器人的推断结果,因此希望我们的结果能够为实际的奖励推理带来更好的预测 - 可达效用保存的保守智能机构
研究发现奖励功能易出现错误,为此介绍一种平衡主要奖励函数和辅助奖励函数优化的方法,即使辅助奖励函数是随机生成的,该方法也能诱导保守且有效的行为。
- 利用高斯过程进行鲁棒的超级水平集估计
该论文集中讨论了通过高概率确定函数超过给定阈值的尽可能大的区域的问题,提出了一种使用鲁棒性方差项的高斯过程来预测函数上阈值区域的体积,并给出了算法的探索效果的渐近保证,同时还通过各种数值实例表明我们的方法在实践中也优于现有技术。
- 在错误设定下确定性基于核的数值积分规则的收敛分析
本文研究了基于核的求积规则在误差设置中的收敛分析,着重于 Sobolev 空间中的确定性求积。具体而言,我们处理了测试积分不够光滑的错误设置,并在求积规则上提供基于两种不同假设的收敛保证:一种是基于求积权重的假设,另一种是基于设计点的假设。 - AAAI线性赌博机误设
本研究考虑了线性多臂老虎机问题中的在线学习问题,并提出了一种新的算法,该算法包括一个线性假设检验和 OFUL 或 UCB 算法的决策。该算法在完全线性情况下表现出 OFUL 的良好遗憾性能,在存在不稀疏偏差性质的错误规范模型上避免了线性遗憾 - 超越正确规范的向量分位数回归
研究向量分位数回归模型及其解决优化输运问题的能力,探讨其在未正确规定情况下的解决方案,说明该模型在解决单变量情况下叶克弗(Koenker)与巴塞特(Bassett)经典方法的等价性,同时还提供其它详细的结果。
- 贝叶斯推断在错配线性模型中的不一致性及修正方案
在简单的线性回归问题中,我们证明贝叶斯推断在模型平均 / 选择和贝叶斯岭回归设置中可能存在一致性问题。同时,我们利用学习率来修正这个问题,并提出了 SafeBayes 方法,从数据中学习学习率,其结果非常令人鼓舞。