机器学习的确定性新信息理论
提出一种基于信息熵的新量度 troenpy 并给出其用于文本分类的权重方案 PCF;提出了期望类信息偏差 (ECIB) 特征,可以用于逻辑回归模型中,实验结果表明这些新方法能显著提高性能。
Apr, 2023
人工智能决策中的不确定性量化通过提出的 PI 和 PSI 度量可以揭示计算机视觉模型预测的不确定性,表明香农熵在人工智能的最新方法中可能扮演重要角色。
Jun, 2024
提出了一个信息论框架,将原子尺度模拟、机器学习和统计力学结合起来,通过建立相图、识别稀有事件、对数据集进行优化、以及进行模型无关的不确定性量化,统一描述了原子尺度建模中的信息相关问题。
Apr, 2024
应用机器学习模型进行决策需要区分模型所知与不知的内容。本文提供新的洞见,揭示当前预测不确定性度量的局限性,并引入了一种理论上可靠的度量方法来克服这些局限。实验证明,我们引入的度量方法在控制的合成任务中表现得更加合理,并且在利用预测不确定性的实际应用中具有优势。
Nov, 2023
本文提出了一种新的量子 - 类贝叶斯网络,以解释社会困境中人们的行为违反 Sure Thing 原则的现象,同时使用 Deng 熵提出了信仰距离概念,从而使得该模型在实证数据测试中证明是可预测和有效的。
Sep, 2017
提出了基于合适评分规则(proper scoring rules)的新的测量方法,用于量化机器学习中的系统不确定性和认知不确定性,建立了不同不确定性表示之间的联系,并引入了新的认知和系统不确定性度量。
Apr, 2024
本研究旨在通过将 Shannon 熵与粗糙集理论相结合,提供一种创新的方法来推广机器学习评估方法。该综合框架将粗糙集理论的粒度与 Shannon 熵的不确定性量化相结合,应用于一系列机器学习算法,旨在不仅评估预测性能,还揭示数据的内在结构和模型的鲁棒性。通过在各种数据集上进行严格测试,结果表明了该综合方法在增强机器学习评估中的实用性,提供了一个多方位的视角,平衡了准确性与对数据属性和模型动态的深入理解。该论文为机器学习评估提出了一种开创性的观点,提出了一种概括模型性能整体视图的方法,从而在模型选择和应用中促进更明智的决策。
Apr, 2024
本篇论文提出了一种基于神经网络和新型 dropout - 熵测量方法的模型以及基于特征表示的度量学习方法,可以更精确地预测,提高分类器的预测准确性,尤其在医学诊断等需要确定不确定预测的领域有广泛的应用。
Jul, 2019
本文提出一种将 Shapley 值框架用于解释各种预测不确定性的方法,旨在通过量化每个特征对个体模型输出的条件熵的贡献来解释模型输出的不确定度;该方法具有用于协变量转移检测、主动学习、特征选择和主动特征值获取的应用。
Jun, 2023