- CHG Shapley: 高效的数据评估与选择,迈向可靠的机器学习
通过计算每个数据子集对模型准确性的效用近似值,在单个模型训练期间推导 CHG(Conduct of Hardness and Gradient)评分的 Shapley 值闭式表达式,我们在大规模数据集上将数据估值方法从多次模型重训练的形式改 - GameVLM:基于视觉语言模型和零和博弈的机器人任务规划决策框架
该研究介绍了一个多智能体框架 (GameVLM),使用预先训练的视觉语言模型 (GPT-4V) 来增强机器人任务规划中的决策过程,通过引入零和博弈理论来解决不同智能体之间的一致性问题,并得出最优解,实验证明该框架具有 83.3% 的平均成功 - 解释性多视角聚类
多视角聚类是一个重要的研究领域,本研究提出了一个可解释的多视角聚类框架,通过提取每个视角的嵌入特征和生成伪标签来引导决策树的初始构建,并在优化特征表示以及改进解释性决策树的同时,为多视角数据提供一个透明的聚类过程,实验结果表明,该方法在聚类 - 理解多模态深度神经网络:概念选择视角
通过两阶段的概念选择模型(CSM),本研究在观察到概念的长尾分布的基础上,提出了一种无需引入人为先验的核心概念挖掘方法,实验表明该方法在解释性和理解性方面可与黑盒模型相媲美。
- 语言模型是航天器操作员
基于大型语言模型 (LLM) 的代理机制在航天领域中发挥重要作用,首次将 LLM 代理引入航天研究,通过提示工程、少样本提示和微调技术开发了有效的 LLM 代理,并在挑战赛中获得第二名。
- 自动驾驶的世界模型:初步调查
在自动驾驶领域中,世界模型的能力是重要的,既可以确保安全性和效率性,还能关键性地帮助决策过程,通过合成和解释大量的传感器数据,从而预测潜在的未来情景并弥补信息缺失。本文回顾了自动驾驶领域中当前状态和世界模型的前景发展,包括其理论基础、实际应 - 工程系统设计中的动态决策制定:一种深度 Q 学习方法
通过使用深度 Q 学习算法来优化工程系统设计的框架,在处理复杂性和不确定性带来的挑战的同时,通过模拟模型寻找最大化输出的策略,解决了多个不确定性源的存在导致的工程系统设计问题。
- G-MEMP:驾驶中基于注视增强的多模态自我运动预测
我们研究了司机的决策过程对确保道路安全的重要性,通过利用司机的注视数据来推测司机自身的车辆行驶轨迹,提出了 G-MEMP 方法,利用 GPS、视频和注视数据进行多模态的自身车辆行驶轨迹预测,并通过提出的路径复杂度指数(PCI)来评估轨迹复杂 - 再三考虑?请让我们听听
深度学习模型与人类决策过程相似,但其决策过程易受干扰。我们提出了一种新的注证过程,通过模拟选择性注意力来增强深度学习模型的鲁棒性。实证评估表明,这种新的注证过程可以提高深度学习模型的准确性,并帮助我们建立安全措施以减轻其在人工和自然对抗样本 - CAIS-DMA:协同人工智能系统的决策助手
该研究介绍了一种新的方法,用于在协作人工智能系统在经历破坏性事件后的性能退化时自动支持决策过程。我们开发了一个框架,自动监控决策过程,在性能退化时进行干预,并推荐下一步操作。
- 机器学习在公交运输分析中的优势
利用监督机器学习算法分析德黑兰 BRT 巴士系统准时性的影响因素,并构建准确的预测模型,研究各算法的决策过程,揭示影响巴士线路效果的关键因素,为提高其性能提供有价值的见解。
- ChoiceMates:用多智能体对话交互支持陌生在线决策
通过观察用户在访问多样观点、识别相关信息、决定最佳时机方面遇到的挑战,我们提出了 ChoiceMates 系统,它通过与一组动态的 LLM 动力代理进行对话,实现对信息的全面领域理解和高效发现和管理,以作出决策。与传统的网络搜索和单一代理相 - 运用因果推理避免数据驱动参数分析的副作用:建筑、工程和建设行业案例研究
应用于建筑工程中的数据驱动模型中,因果分析具有重要作用,可避免偏见结果和认知偏差的发生。
- 带理由推断的优势演员 - 评论家算法:从探索性视角解释代理行为
本文介绍了一种新的带有解释性的 Actor-Critic 强化学习模型 A2CR,通过预定义和分类行为的目的,A2CR 自动生成了更全面、可解释的决策模式,从而提供了一系列功能,如基于目的的关键性、早期故障检测和模型监督,以促进负责任和可信 - 基于网格的强化学习环境中的通用和可解释知识学习
使用程序合成方法对深度强化学习代理进行模仿,以了解其学习的概念和决策过程。
- 无监督序列模型中的世界模型中的线性表现
序列模型对其决策过程是如何表示的?我们的研究表明,将模型的内部状态线性化表示为 “我的颜色” 与 “对手的颜色” 可以通过简单的向量运算来控制模型的行为,从而实现对内部表示的精确理解。线性表示为解决序列模型的解释性问题提供了重要进展,并通过 - 利用可解释人工智能提高分类系统的策略
本研究探讨了一组通常与机器学习分类任务一起使用的著名可解释人工智能 (XAI) 方法,以验证它们是否能被利用,不仅提供解释,而且还可以改善模型本身的性能。研究结果表明,Integrated Gradients 方法构建的解释突出了可用于提高 - 多智能体强化学习中条件协调行为的可解释性
提出了一种无模型强化学习架构,名为带有条件关注的分布式注意力演员架构(DA6-X),用于提供条件协调行为更好的可解释性。该方法通过重用显着性向量,展现除全局智能体位置等环境的条件状态。具有 DA6-X 灵活性的智能体政策在决策过程中考虑条件 - 基于深度强化学习的调度多层解释
本文提出了一个多层解释框架,用于解释基于深度强化学习的作业调度策略,该策略的决策过程被分解为作业级别和任务级别,并用可解释的模型和规则近似每个级别,以便系统管理员能更好理解和管理该调度策略
- ECCV基于 Shapley 值的卷积神经网络视觉解释
本文提出 Shap-CAM,一种基于类激活映射的新型后续可视化解释方法,通过获取 Shapley 值来消除依赖于梯度的先前方法的不足,表现出更好的视觉性能和公平性以解释决策过程。