多源信念变化中的专家是谁?
本文提出了一个概率的信念模型,并探讨了它对于信念动态的影响,比 AGM 理论约弱但比 Lockean 理论强,考虑一类特定模型并提出其自然的原则,最终相较于 Leitgeb 和 Lin 以及 Kelly 的竞争性概率信念模型而言本框架比较优越。
Jul, 2023
通过基于信念状态的KM经典公设修改以及将经典迭代信念修订的若干公设移植到迭代信念更新中,本文提出了解决Rodrigues方法不满足迭代信念更新基本要求的方法,并根据偏序关系提供了每个提出的公设的确切语义特征。最后,本文分析了上述迭代公设与信念更新中的KM公设之间的兼容性。
Oct, 2023
本研究提出了一种基于知识度量和信息论的量化信念变化框架,其中引入了最小惊讶原则以减少变化信念所携带的信息量。研究主要贡献包括对知识度量的通用信息论方法,满足AGM公理的基于知识度量的信念变化运算符,以及将满足AGM公理的任何信念变化运算符编码为基于知识度量的信念变化运算符的表征。同时介绍了描述收缩的信息损失、扩展的信息增益和修订的信息变化的量化度量方法。此外,对于在该框架中应用修订操作序列的迭代修订问题进行了简要探讨,并通过严格撤回模型给出了一个基于知识度量的收缩运算符,该运算符不满足恢复公理。
Mar, 2024
通过解释假设,本研究提出了一种基于解释的信念修订操作符,以试图更好地描述人们在解决信念不一致性时所采用的策略,并进行了两项人类参与研究以验证该方法。
May, 2024
本研究解决了在日益复杂的人工智能模型中互动可解释性方法的不足。提出了将信念变化理论作为基础,用于模型化用户反馈与数据驱动分类器的逻辑表示的整合,进而形成了一种新颖的互动解释框架。研究表明,该方法可增强透明度与问责制,同时为真实世界的互动可解释性提供了实用可行的视角。
Aug, 2024
本研究解决了随着AI模型日益复杂,交互式可解释人工智能(XAI)方法的需求日增的问题。提出使用信念变更理论作为基础,为交互式XAI中的用户反馈整合提供了一种形式化框架,进而提出了一种新的基于逻辑的形式化方法来呈现人机共享的解释信息,促进了互动过程的透明性与责任感。此方法的应用可以更好地实现在现实场景中的解释与互动,具有较大潜在影响。
Aug, 2024
本研究解决了在认识论空间中,处理不一致信念集及信念的信任限制修正问题。作者提出了一种新的方法,扩展了信任限制修正算子,使其不仅包括原有的信任限制修正算子,还涵盖了所有AGM修正算子。研究发现,扩展的信任限制修正算子具有明显的语义特征,能够有效处理可能世界上的总排序问题。
Sep, 2024