有序分辨率框架上的信念函数
本文提出了利用Here-and-There的逻辑来实现ordered disjunction,并探究了其在分裂程序中的应用和性质,还和Karger等人的一个扩展进行了比较。
Nov, 2010
本文提出了一种关于认知随机模糊集的普遍理论,用于处理模糊或清晰证据,并通过广义的乘积交集规则进行独立认知随机模糊集的组合,提出了用于量化标量或矢量量,即高斯随机模糊数和多维高斯随机模糊向量的实用模型,并为组合、投影和平凡扩展推导了高斯随机模糊数和向量的公式。
Feb, 2022
本论文提出了一种新的模型,结合了Dempster-Shafer Theory和Evidence的拓扑模型,可以根据不同标准计算代理的(可能)不同的信念程度,并解决了计算这些程度的问题的#P-complete问题。
Jun, 2023
本文旨在研究如何将单个概率信念合理地聚合为集体二元信念,采用议程理论方法推广了此前的研究成果,得出了使“寡头统治”成立的议程条件,还研究了附加了匿名性和完备性一致性后的易证无解和不可避免结果。
Jul, 2023
本文提出了一个概率的信念模型,并探讨了它对于信念动态的影响,比 AGM 理论约弱但比 Lockean 理论强,考虑一类特定模型并提出其自然的原则,最终相较于 Leitgeb 和 Lin 以及 Kelly 的竞争性概率信念模型而言本框架比较优越。
Jul, 2023
在这项研究中,我们将OSF逻辑推广到模糊环境下,并给出了模糊子包含关系的灵活定义,建立了OSF逻辑的模糊语义,讨论了OSF术语之间的模糊子包含关系,并证明其构成了模糊偏序,同时介绍了如何通过统一操作找到两个OSF术语的最大下界以及计算两个OSF术语之间的子包含度,并给出了这些操作的复杂度。
Jul, 2023
在广义粗糙集中,将两个事物结合形成另一个事物并不简单。本研究创造了结合事物的代数模型,用于研究人类推理中的怀疑主义或悲观主义聚合以及可能性聚合,并且选择的运算受到了视角的限制。该模型还适用于研究人类推理中的歧视性/有害行为以及学习此类行为的机器学习算法。
Aug, 2023
分析了一个众包设置中的一般问题,即一个用户提问并由其他用户提供答案,不同于现有的众包工作侧重于找到问题的最合适的答案(“真实性”),我们的问题是根据用户回答问题的能力确定用户的排名。通过使用项目反应理论(IRT)对项目及其答案进行合理的建模,提出了一种新的HITSNDIFFS算法,称为HND,证明它可以恢复理想的连续排列,为该问题提供了一个保证在理想情况下返回正确答案的原则性启发式方法。实验证明,与现有的真实性发现方法相比,HND产生具有高准确性的用户排名。
Dec, 2023
大语言模型(Large Language Models)内部如何表达其对世界的信念是一个缺乏统一理论基础的研究领域,本文通过提出适当性条件,填补了这一空白。研究人员通过结合哲学和机器学习方法,建立了准确度、连贯性、一致性和应用等四个标准,以促进对大语言模型中信念表达的全面理解。
May, 2024