算法作曲中的自传式探索
这篇论文通过对不同组合的 Variational Auto-Encoder 模型、AI 模型的潜在空间配置和训练数据集进行系统研究,表明 MeasureVAE 在音乐生成性能方面具有更好的重构表现,AdversarialVAE 在音乐属性独立性方面表现更好。结果展示了 MeasureVAE 能够通过可解释的音乐控制维度生成跨音乐流派的音乐,并且在生成简单的流行和摇滚音乐时表现最佳。建议在使用 MeasureVAE 生成跨流派音乐时,4 个正则化维度的 32 或 64 个潜在空间尺寸是最佳选择。这些结果是关于音乐生成的最详细的现代生成 AI 模型配置的比较,并可用于选择和配置 AI 模型、音乐特征和数据集以实现更易理解的音乐生成。
Nov, 2023
介绍了一种增加可解释性的音乐生成的潜变量模型,通过潜空间正则化、用户界面反馈循环和音乐属性可视化,实现了模型和生成音乐结果的可解释性和可调试性。
Aug, 2023
通过定制化解释并根据反馈不断完善,提出了一种适用于音乐表演的可解释人工智能框架,强调了背景和受众在解释需求开发中的重要性,为提升广泛艺术应用和音乐表演中人工智能系统的透明度和可解释性提供了一个有前景的方向。
Sep, 2023
本文研究自动生成模型的可解释性问题,结合三个软件工程应用场景,提出了人机交互的 XAI 设计方法,包括场景设计和问题驱动设计,并探讨了基于自动生成模型的代码生成、翻译和自动完成等功能的可解释性需求和设计思路。
Feb, 2022
人工智能(AI)目前主要基于黑箱机器学习模型,缺乏可解释性,解释性人工智能(XAI)的研究旨在解决这一主要问题;本论文提出一种基于范畴论的定义 AI 模型及其可解释性的方法,通过使用组合模型的概念,以形式化的字符串图表达抽象结构和具体实现,包括确定性、概率性和量子模型,并比较了广泛的 AI 模型作为组合模型,包括线性模型、基于规则的模型、(循环)神经网络、变换器、VAEs 以及因果图和 DisCoCirc 模型;定义了模型的解释性,演示如何分析模型的可解释性,并用此来阐明 XAI 中的共同主题;发现标准的 “本质可解释性” 模型在图表中展示得最清晰,从而引出了更一般的组合可解释(CI)模型的概念,其中还包括因果性、概念空间和 DisCoCirc 模型;演示了 CI 模型的可解释性益处,包括通过组合结构计算其他感兴趣量,通过匹配结构实现从模型到被模拟现象的推理,以及基于影响约束、图表手术和重写解释的图表解释行为;最后讨论了该方法的未来发展方向,提出了如何在实践中学习这种有意义结构的模型的问题。
Jun, 2024
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
生成人工智能(GenAI)标志着人工智能能够生成解决方案,从而实现能够认知的人工智能,但也引出了解释可解释性(XAI)的新需求和挑战。本文首先强调了 XAI 在 GenAI 的重要性,并介绍了解释要求的新颖性和涵盖的方面。接着,我们对现有的 XAI 机制和方法进行了调查,并提供了税 onomy 来更好地描述和分类。然后,我们讨论了确保 XAI 的不同途径。最后,我们提供了一个简短但简明的 GenAI 技术背景,以帮助非技术读者更好地理解针对 GenAI 的新颖或调整过的 XAI 技术。本研究还为未来研究提供了十多个方向。
Apr, 2024
该论文描述了一个整合 AutoML、XAI 和合成数据生成的系统的设计,从而为用户提供了优良的用户体验设计,使他们能够利用机器学习的力量而抽象其复杂性并提供高可用性。论文中介绍了两种新型分类器,逻辑回归森林和支持向量树,用于提高模型性能,并在糖尿病数据集上实现了 96% 的准确率和调查数据集上的 93% 准确率。此外,论文还介绍了基于模型的局部解释器 MEDLEY,并将其与 LIME、Greedy 和 Parzen 进行了评估。论文还介绍了基于 LLM 的合成数据生成、基于库的数据生成和通过 GAN 增强原始数据集的方法。在合成数据方面的研究结果表明,通过 GAN 增强原始数据集是生成可靠合成数据的最佳方法,这一点通过 KS 测试、标准差和特征重要性得到了证明。作者还发现 GAN 在定量数据集上表现最好。
Dec, 2023
该论文提出了一个使用可解释人工智能技术方法来自动提升预训练深度学习分类器性能的通用框架,避免了重新训练复杂模型所带来的计算开销,通过两种不同的学习策略,自动编码器和编码器 - 解码器,来实现这一架构。
Mar, 2024