非贝叶斯社会学习
如何在个人的隐私需求和安全顾虑中实现个体之间的信息交流以彼此学习?通过采用严格的统计担保,基于差分隐私(DP)控制信息泄露,我们使得保护个人隐私和实现高效社会学习成为可能。我们的研究结果揭示了在质量、学习准确性、通信成本和个体隐私保护水平之间在有限和无限信号环境下的权衡性质。
Feb, 2024
研究了具有有限信息量的私有信号和关于决策者的历史信息的决策规则下,智能体决策是否会收敛到真实状态的条件,并发现在几乎肯定的情况下无法进行学习,在一定概率下进行学习的决策规则存在,而基于贴现收益的广义特殊博弈中,即使众多神经元共同决策,也无法保证学习。
Sep, 2012
本篇研究讨论信息聚合问题,即在联邦决策中,一组代理协作推断自然状态而不与中心处理器或其他代理共享其私有数据。我们分析了非贝叶斯社会学习策略,其中代理将他们的个体观察结果纳入他们的观点中,中心处理器通过算术或几何平均来聚合这些观点。通过我们以前的工作,我们建立了两个聚合策略的渐进正态性的特征,并通过模拟验证了理论结果,并比较了两个策略。
Mar, 2023
本文提出了一种在节点网络中训练机器学习模型的完全去中心化框架,其中节点通过在模型参数空间上引入信念的贝叶斯式方法,通过聚合来自其一跳邻居的信息进行更新其信念以在整个网络上学习最适合观察的模型的分布式学习算法,同时获得确保每个节点的误差概率很小的充分条件和讨论了应用此算法训练深度神经网络(DNNs)所需的近似,实验证明与节点学习无合作的情况相比,所提出的学习规则算法提供了显着的精度改进。
Jan, 2019
学习智能体可以通过假设存在共享的规范来推断现有人群的规范,进而实现学习与社会合作。该研究在马尔可夫博弈的环境中形式化了这一框架,并通过近似贝叶斯规则归纳来展示了多智能体环境中的操作,使智能体能够快速学习和维持各种合作制度,包括资源管理规范和对亲社会劳动的补偿,推动集体福利同时允许智能体保持自身利益。
Feb, 2024
本研究提出了一种协作多智能体强化学习的共识学习方法,通过基于本地观察的共识学习,在分散式执行期间将推断出来的共识明确地作为智能体网络的输入,从而发展他们的合作精神,并在若干完全合作任务上获得了令人信服的结果。
Jun, 2022
在非学习模型中,如果代理使用上下文无懊悔学习算法,那么主体可以确保利用率接近于经典的带承诺非学习模型中主体的最优利用率;如果代理使用上下文无交换懊悔学习算法,那么主体无法获得比带承诺非学习模型中最优利用率更高的利用率;使用基于均值的学习算法,主体可以比非学习模型获得显著更好的结果。这些结论对于任何具有完全信息的广义委托代理问题都成立,包括斯塔克尔伯格博弈和合同设计。
Feb, 2024