- 通过经验的合作机制重新思考教师 - 学生课程学习
基于教师 - 学生课程学习(TSCL)的数据中心视角和合作博弈理论,研究了 TSCL 框架中教师与学生之间的相互作用机制,揭示了经验的组合和顺序对 TSCL 课程的性能产生的影响。通过实验对监督学习、强化学习和经典游戏进行估值和构建课程,为 - 基于 Shapley 值的多智能体强化学习:理论、方法及其在能源网络中的应用
本论文通过合作博弈理论研究了多智能体强化学习中的信用分配问题,提出了一种基于 Markov Shapley 值的信用分配方案,并应用于能源网络的真实问题上。
- 合作博弈理论下的开放式即兴团队合作
建立一个从合作博弈理论的视角解释图神经网络在图基策略学习中使用的联合 Q 值表示法,并基于该理论提出了一种新的算法来补充 GPL 中被忽视但有助于学习的关键特征。通过实验证明了该算法在动态团队构成中与 GPL 的性能比较的正确性。
- 解释概率模型的分布值
通过概率模型的分布值和随机变量,这篇论文扩展了合作博弈和价值算子的方法,解决了可解释性机器学习中解释与当前方法之间的不匹配问题,并通过视觉和语言模型的案例研究提供了细致深入的解释。
- 在不完全合作博弈中降低乐观偏差
合作博弈理论在当代人工智能中有各种应用,包括可解释的机器学习、资源分配和协同决策。本文提出了一个旨在优化展示联盟价值序列的框架,以有效缩小合作博弈中玩家期望与实际结果之间的差距。通过研究玩家对缺失联盟价值的乐观补全及其产生的差距的分析特性, - 打破负迁移之谜:跨领域序列推荐的合作博弈论方法
这篇论文研究了多领域顺序推荐(CDSR)的问题,提出了一种新的 CDSR 框架来解决负迁移问题,并使用合作博弈论来估计领域对模型性能的边际贡献,以及引入层次对比学习方法来缓解负迁移。通过在两个真实数据集中跨十个不同领域进行实验,证明了我们的 - 利用合作博弈理论修剪神经网络
使用合作博弈理论的解决概念来解决修剪神经网络的问题。引入了一种名为博弈理论辅助修剪(GTAP)的方法,通过游戏论解法根据神经网络中神经元对预测准确性的联合影响估计来减小网络的规模同时保持其预测准确性。经过实证评估,该方法在参数数量和模型准确 - 归纳解释的公理化聚合
通过合作博弈理论和因果强度的措施,将多个可能的诱导解释汇总为特征重要性评分,从而解决了单个和全部有效诱导解释之间的矛盾,这些解释对多个数据集都具有鲁棒性,同时欺骗 SHAP 和 LIME 的攻击也是有效的。
- 加权莫比乌斯分数:一种统一特征归因框架
本文提出了一个可参数化的归因框架 — 带权重的 M"obius 得分,用于解释黑匣子模型的预测(单一特征和特征间互动),并且发现了一些新的归因方法。通过研究归因方法的向量空间,我们的框架利用标准线性代数工具,并提供了在合作博弈理论和因果中介 - 神经收益机器:预测团队成员间公平和稳定的收益分配
本文提出了一种使用神经网络模型来学习协作博弈解决方案,以促进公平合作分配的方法,特别是 Shapley value 在 Explainable AI 中的应用。
- ICML参数贝叶斯学习博弈中 Shapley 值的收敛性
研究合作博弈理论中测量贡献的古典问题,借助贝叶斯学习博弈模型以及 Shapley 值计算方法,探索了 Shapley 值在该模型中的收敛性及其应用,提出了一种渐近 Shapley 公平的在线协作学习框架,并通过实验验证了效果。
- 机器学习中的 Shapley 值
本文介绍了合作博弈理论的基本概念以及 Shapley value 的公理性质,概述了其在机器学习中的最重要应用:特征选择,可解释性,多智能体强化学习,集成修剪和数据估价,指出了 Shapley value 的主要局限性和未来研究方向。
- AAAI梯度的竞赛:在联邦学习中缓解非相关客户端
本文介绍一种利用 Shapley 值及合作博弈理论解决联邦学习中选择相关客户的算法,并提出了基于 Shapley 值的 Federated Averaging 算法 (S-FedAvg),该算法可以使服务器以高概率选择相关客户,实验结果表明 - ACL注意力流是 Shapley 值的解释
本文通过形式化证明得出,与传统的 leave-one-out 和 attention-based 解释方法不同,attention flow 是 Shapley Value 的一种有效替代方法,因此建议在 NLP 中广泛采用。
- IJCAI责任分配的博弈论解释
该研究考虑多智能体系统中的责任分配问题,通过建立不完全信息的广义博弈模型,定义前向责任,后向策略与因果责任概念,并通过合作博弈理论给出了定量责任估计方法。
- 通过线性回归改进 KernelSHAP:实用的 Shapley 值估算
本文探讨了如何通过线性回归来有效估计机器学习模型的 Shapley 值,并提出了一种方差缩减技术,以加速两个估计器的收敛速度。此外,还发现了一种新的无偏版本 KernelSHAP,并提出了一种针对随机合作博弈的方法,可产生两个全局解释方法的 - ICML协作机器学习中考虑奖励机制的模型奖励
本文提出了一种基于 Shapley 价值和信息增益的奖励方案,在注入高斯噪声时通过一个可调参数权衡公平和稳定性,以满足合作机器学习中的一些可取属性,并根据合成和真实数据集来评估其性能。
- ICML用于 Shapley 值近似的多项式时间算法解释深度神经网络
该研究提出了一种基于不确定性传播的深度神经网络 Shapley 值的多项式时间逼近方法,相较于现有最先进的归因方法,该方法可以显著地更好地逼近 Shapley 值。
- AAAI多智体环境中的过失责任
提出关于群体因多个主体联合防止不良结果而确定责任的正式定义,并使用合作博弈论的标准概念 Shapley value,从群体的责任评估转化为个人的责任评估,旨在为设计行为具备道德准则的自主代理提供关键理论支持。
- 合作博弈理论在网络分割中的应用
本文主要研究博弈论方法在网络社区检测方面的应用, 提出了使用合作博弈理论的方法来突出聚类形成机制,特别是在基于愉悦游戏的方法中,在调整分辨率参数方面具有特别直观性,并且将模块性方法及其概括可以视为愉悦游戏的特定情况。