- 不公平的公共设施及改善的首要步骤
该研究提出了一种新的公平性框架,不再局限于政策或预测器的选择,而是考虑政策正在优化的效用,定义了信息价值公平性,并建议不使用不满足此标准的效用。研究描述了如何修改效用以满足这种公平标准,并讨论了这可能对相应最优政策产生的影响。
- 大规模任务导向的通讯设计
本文提出了一种利用任务 - 导向的通信设计(TOCD)框架和信息价值(VoI)概念的新方法,以实现协作多代理系统中可扩展的任务定向量化和通信的设计。通过强化学习来学习值信息(VoI),并设计量化策略和代理控制策略,我们证明了该方法在广泛的问 - 多个教师的主动奖励学习
利用多种来源的人类反馈信息可提高强化学习算法的效率和准确性,通过算法来评估不同来源反馈信息的价值,可以有效地选择最具价值的教师进行反馈,从而提高人类价值和人工智能行为的一致性。
- AAAI可溶影响图信息价值的完整标准
本文建立了多决策影响图变量信息价值的第一个完整图形性质,同时建立了两种关于多决策影响图的技术:ID 同态和系统树.
- 探究未来车联网通信中的信息价值
本文描述了价值的特征和使用了多层次决策过程来确定传感器观察价值的方法,以解决未来车用网络中的数据传播和容量问题。
- 未来车载网络中信息价值评估框架
本文提出和评估了一个利用层次分析多准则决策过程预测数据源在空间、时间、质量特征上的信息价值框架,研究结果表明,传播场景、传感器分辨率、观测类型和通信距离对信息价值评估性能有不同的影响,并且价值随目标应用程序的特征以不同的速率发展。
- 昂贵积分的贝叶斯优化
提出一种用于贝叶斯优化的算法,优化对象为求和或积分形式、具有难以评估的函数,适用于机器学习超参数调优、模拟优化、随机实验设计等领域,该方法在单次函数评估处于预算内时具有平均情况最优性,通过解决信息价值优化问题达到了一步最优性,同时也在数值实 - 贝叶斯优化热启动
本研究提出了利用贝叶斯优化预热的框架,用于减少在解决一系列相关问题中所需的解决时间。该方法可用于优化随机模拟器的输出,而渐变优化方法则无法胜任。我们的方法建立了一个相关目标函数的联合统计模型,并使用信息价值计算来推荐要评估的点。
- 基于模型的贝叶斯探索
本文论述的是如何在强化学习的算法中基于概率分布估算每个行动的信息价值,并选择能够平衡探索与利用的最佳行动。
- 个性诊断协同过滤:一种基于混合记忆和模型的方法
该研究介绍并评估了一种基于个人偏好识别的推荐系统方法,即 Personality Diagnosis (PD),它具有传统相似度加权技术的优点,并能提供有意义的概率解释,同时支持价值信息计算。