认知偏差与信念修正
本文提出了一种基于机器学习的个性化方法,用以检测网站用户在使用过程中表现出的两种认知偏见 - 锚定偏见和最新偏见。此方法建立在认知心理学两个基本原则的基础之上,并使用修改后的注意力网络进行培训,通过解释引导注意力的方式来区分这两种认知偏见。此个性化方法适用于特定的用户,并可以帮助他们意识到自己的偏见,从而采取减少偏见的方法。
Jun, 2022
在我们的研究中,我们提出了一个信念形成模型,其中代理试图区分两种理论,证实和证伪证据之间的强度不对称性使得信念倾向于生成强(可能是罕见的)证实证据和弱(频繁的)证伪证据的理论。在我们的模型中,信息处理的限制导致代理倾向于审查弱证据,这导致在某些区分问题中,证据可能大部分是单面的,与真实的基本理论无关。了解被审查的数据生成过程特征的复杂代理不会被这些所谓的 “证据” 所迷惑,但是不太复杂的代理最终会形成有偏见的信念。
Oct, 2023
通过解释假设,本研究提出了一种基于解释的信念修订操作符,以试图更好地描述人们在解决信念不一致性时所采用的策略,并进行了两项人类参与研究以验证该方法。
May, 2024
本文提出了一个概率的信念模型,并探讨了它对于信念动态的影响,比 AGM 理论约弱但比 Lockean 理论强,考虑一类特定模型并提出其自然的原则,最终相较于 Leitgeb 和 Lin 以及 Kelly 的竞争性概率信念模型而言本框架比较优越。
Jul, 2023
利用认知科学的知识建立数学模型并提供了一个普遍的框架,用于理解认知偏差和人工智能精度之间的相互作用,特别是锚定偏差,通过一项有效的时间分配策略,成功提高了人工智能的协作性能。
Oct, 2020
通过语法特征,我们为 Sentential Decision Diagrams(SDDs)推导出具有一般性的修订算法,并呈现了一个特殊的程序,以便于修订任务的直接操作。
Jan, 2022
自然修正尽可能少地改变信念,基于条件真相的简单公式将自然修正扩展到条件真相的条件式中,基于最小变化、无差异性和天真的基本原则,自然修正将变化限制在当前条件中,与不受限制的修正进行比较并确定当前条件是什么。
Sep, 2023
本文主张人工智能系统需要模拟、理解、甚至复制人类的认知偏差,在人机协作中扮演更加重要的角色,并提出了关于人类认知偏差和人工智能之间相互作用的研究议程及三个感兴趣的广泛领域,并为具有更好对人类偏见的人工智能系统的设计方向提出了研究方向。
Oct, 2022
该论文提出了一个关于代理人认知态度和动机类型推理的普遍的逻辑框架,它使我们能够表达多种相关概念,包括知识、信念、条件信念、欲望、条件欲望、偏好等,在此基础上,提出了具有选择机制和信念改变、欲望改变的动态运算符的两个扩展,并将前者应用于不完全信息下的单阶段博弈分析。
Feb, 2021