基于证据权重的可解释目标识别框架
通过权重证据(WoE)框架生成正负两方面的证据来支持或反驳假设,本研究描述和评估了一种基于假设驱动的可解释人工智能(XAI)的方法,并通过人类行为实验表明该方法提高了决策准确性、减少对推荐驱动方法和仅有 AI 解释的基准的依赖,但与推荐驱动方法相比在依赖性不足方面稍有增加,并进一步显示参与者使用我们的假设驱动方法与两个基准方法有着实质性的不同。
Feb, 2024
本文提出了一种结合基于模型的强化学习和目标识别的框架,在离线学习和在线推理阶段分别使用 tabular Q-learning 和三种推理度量,以解决目标识别中需要手动设计、在线计算等问题,从而在标准评估环境中实现了最先进的性能,同时在嘈杂环境中也表现出了优异的性能。
Feb, 2022
目标识别设计旨在在决策环境中作出有限的修改,以使更容易推测在该环境下行动的代理人的目标。我们通过使用数据驱动的方法和基于梯度的优化框架来对目标识别设计进行优化,以解决现有方法中的计算需求和对代理人决策的假设性限制,从而实现对决策环境的改进。
Apr, 2024
本文提出了一种基于学习模糊加权规则的可解释连续变量预测新方法,采用符号和非符号混合方法和领域知识约束来实现透明可解释性,并在预测吸烟戒断行为干预结果研究中展示出比其他可解释方法更好的性能。
Aug, 2022
基于可用线索推断意图的目标识别是一种基本的认知过程,该研究使用贝叶斯框架来探索行动、时间和目标可解性在目标识别中的作用,并通过分析人类对 Sokoban 领域的目标识别问题的回应,发现行动被赋予最重要性,但时间和可解性在某些情况下也影响目标识别,特别是在行动信息不足时。我们利用这些发现开发了一个目标识别模型,与现有算法相比,更接近人类的推断。我们的工作为人类目标识别提供了新的视角,并朝着更像人类的 AI 模型迈出了一步。
Feb, 2024
我们首先强调有监督微调在解决这个问题中的局限性,然后介绍了一种精心设计的强化学习中奖励工程方法以更好地解决这个问题,我们研究了多种奖励聚合方法,并提供了详细的讨论,阐明了强化学习在未来研究中的潜在潜力,我们提出的两种半结构化解释生成基准(ExplaGraph 和 COPA-SSE)上的奖励取得了新的最先进结果。
Sep, 2023
本文提出了一种名为 GoalEx 的目标驱动聚类框架,结合用户目标和自由形式的语言描述,采用语言模型和整数线性规划等方法实现对大型语料库的层次化聚类,并在辩论、客户投诉和模型错误等方面进行了应用。
May, 2023
本文提出了一种基于算子计数框架的方法来有效计算符合观察结果的解,用于解决目标识别任务,并对部分和噪声观测进行估计和满足观测。通过大规模数据集的实证评估,证明了该方法在一致性比率、准确性和分散性等方面优于以往方法,同时为解决目标识别任务的组合优化开辟了新的研究路径。
May, 2019
提出了一个能够在外部攻击下保持鲁棒性和提供一般性解释的特征感知可解释推荐系统的通用框架,通过在三个不断增大的流行电子商务数据集上对两个架构不同的基于特征的最先进可解释算法进行训练,实验证明了该框架在正常和嘈杂环境下全局解释能力的整体提升,展示了其灵活性和可变性。
May, 2024
该研究介绍了期望目标模型的全局解释(介于局部和全局之间),通过提出使用 SHAP 值和部分依赖配置文件的聚合版本,实现在团队和球员水平上进行性能分析,以从期望目标模型中提取球员或团队的知识而不仅仅是单个射门。此外,我们进行了真实数据应用来说明聚合的 SHAP 值和聚合性能配置文件的有用性。该论文最终对这些解释在足球分析中的性能分析潜力进行了讨论。
Aug, 2023