通用线坐标下的视觉知识发现
该研究使用语言统计学的知识来规范视觉模型的训练,在学习视觉关系中的主语、谓语和宾语等实体之间的关系时,可以更准确地反映它们之间的联系。实验结果表明,使用此语言知识提炼,可显著提高模型的检测性能。
Jul, 2017
FigureQA是一个视觉推理语料库,包含超过一百万个基于100,000张图像的问题-答案对。图像来自五个类别的合成科学式图形:线图、点线图、垂直和水平条形图以及饼状图。通过从15个模板中生成问题并提供用于训练机器学习模型的附属数据,FigureQA为开发可以直观地识别数据可视化中的模式的模型迈出了第一步。
Oct, 2017
本文提出两种方法:多重假设检验和交互式可视化,来引导用户发现有意义的概念,通过模拟实验和真实数据的演示可视化,发现这些技术能够在无法预定义描述有意义概念的情况下为用户发现有关概念提供有前途的策略,但不完全自动化该过程。
Feb, 2022
本文介绍了融合人工智能/机器学习和可视化/视觉分析的新兴领域——综合视觉知识发现。文章着重探讨了可视分析、可视化知识发现以及人工智能/机器学习的挑战和未来方向,并讨论了可视化在视觉人工智能/机器学习中的作用。此外,文章介绍了在视觉帮助下新兴的全2D ML、自然语言处理以及多维数据中的人工智能/机器学习的进展。
May, 2022
通过并行坐标系中的视觉知识发现,使用混合和纯超块(HB),以及建议在超算法中使用混合和纯超块,利用UCI ML库的基准数据评估结果,建立超块、降维和可视化之间的连接,并提出了一种新的方法来可视化具有缺失值的不完整n-D数据。
May, 2023
本研究探讨了在二维可视化空间(2-D ML)中使用非损失通用线坐标的视觉知识发现来进行机器学习分类任务的新方法。研究表明,这是一种完整的机器学习方法,不需要在抽象的n维空间中处理n维数据。利用二维中n维数据的图像表征,可以在二维空间中发现n-D模式而不会丢失n-D信息。具体而言,本研究显示了如何使用不同的In-line Based Coordinates进行分类和回归,并展示了两个基于基准数据集(威斯康星州乳腺癌和页面块分类数据集)的案例研究。最后,本研究基于页面块分类数据的特点,开发了一种利用决策树作为模型设计辅助工具的算法,可应用于处理高分辨率多类不平衡数据。该方法加速了一个新兴领域(完整的2-D机器学习和其方法论)的发展,并为最终用户提供了模型自助发现和解释的可能性
May, 2023
这篇论文提出了两种方法,最大激活群提取和多尺度可解释性可视化,以解释模型的决策,增强全局可解释性。实验证据表明多尺度可解释性可视化具有更高的定位和可信度价值。综合应用最大激活群提取和多尺度可解释性可视化可以达成人们根据可视化结果一致判断聚类概念的决策,并检测存在偏见的网络集合。
Aug, 2023
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的“黑匣子”性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个“黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个XAI基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过10种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个XAI数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
DimVis是一个利用监督可解释的增强机器模型的可视化工具,通过交互式探索UMAP投影来提供高维数据分析的特征相关性解释,在转化复杂数据集为简单视觉表示时,增加了解释性,并解决了引入人为失真和解释性问题的困扰。
Feb, 2024
这篇论文研究了在无损3D可视化中的可解释的交互式视觉模式发现,可以帮助非数据科学家的最终用户自主进行模型的开发过程。它结合了三种类型的GLC:SPC、STC和GLC-L,实现了交互式的视觉模式发现。从2D可视化到3D可视化的转变可以获得比2D更明显的视觉模式,同时还允许找到最佳的数据视角,这在2D中不可用。它可以深度分析各种具体类别的数据子集,使最终用户能理解原始可解释属性。此方法还可以通过最终用户控制模型泛化来获得额外的益处。
Mar, 2024