通过对事实性分析进行先导性脑电动力观测分类
本研究提出了一种系统化方法 —— 概念反事实解释(CCE),旨在利用人类理解的概念(例如,由于条纹不清晰,这只斑马被错误地分类为狗)解释分类器在特定测试样本上出错的原因,并在多个已知的预置模型上验证了 CCE 的有效性及其对于缓解偏差的作用,同时也确认了 CCE 可以对带有噪声偏旁相同的数据进行准确分析。
Jun, 2021
通过使用生成模型,特别是扩散模型,可以缓解脑机接口领域中的数据稀缺问题。我们通过引入一种新颖的有条件扩散模型,利用无分类器的指导来直接生成主题、会话和类别特定的脑电图数据。结果表明,该模型能够生成类似于真实数据的脑电图数据。
Mar, 2024
基于脑电信号的运动想象分类的研究提出了一种新的方法,利用坐标转换的 t-SNE 生成二维图像来表示拓扑地图,利用 InternImage 提取空间特征,利用 PoolFormer 启发的时空汇聚来利用序列的脑电图像中隐藏的时空信息,通过实验表明该方法在跨个体验证中二、三、四类运动想象任务中均取得了最佳的分类精度,分别达到了 88.57%、80.65% 和 70.17%。
Mar, 2024
本研究引入了一种新的方法论,名为用户反馈式反事实解释(UFCE),以解决当前反事实解释算法的局限性,并旨在提高对提供的解释的置信度。实验证明,UFCE 在接近度、稀疏度和可行性方面胜过两种著名的 CE 方法,并指出用户约束对生成可行的反事实解释具有影响。
Feb, 2024
本文利用经过训练的 T1 类卷积神经网络模型,通过预处理的脑电数据,探究其成功识别运动想象能力。使用小样本数据验证实时数据分类准确性。
May, 2022
该研究采用反事实解释方法探索医学研究的 “假设场景”,特别关注利用 MRI 特征诊断儿科后颅窝脑肿瘤,并探索反事实的潜在用途并评估其作为医疗研究中的替代方法的可行性和前景。
Jul, 2023
提出了一种简单快速的生成可解释反事实解释的方法,无需辅助模型,使用分类器的预测不确定性,在 IM1 得分方面比现有方法生成更可解释的 CEs。此外,该方法还允许估计 CE 的不确定性,这在医疗等安全关键应用中可能非常重要。
Mar, 2021
本文提出了一种简单但有效的方法来生成可解释神经网络分类决策的反事实案例,并探索了利用生成模型构建坐标系统的方法。文章分析了生成过程并利用定量和定性措施验证了生成的反事实案例的质量。
Jun, 2022
通过利用从人类参与者的神经处理中测量得到的脑电图(EEG)从 FaceForensics++ 数据集的 Deepfake 刺激中检测深度伪造是这项研究的目标。初步结果表明,人类神经处理信号成功地整合到了 Deepfake 检测框架中,并且暗示了一种能够识别超越训练领域的 Deepfake 的广义神经表征的潜力。此外,我们的研究为理解数字真实主义如何嵌入人类认知系统提供了下一步的步骤,可能推动未来更逼真的数字化身的发展。
May, 2024