插拔稳定性:一年无间断的大脑到文本通信演示
本研究提出了一种基于用户反馈进行在线学习的算法X2T,通过学习用户操作中的backspaces信号,对现有的默认接口进行微调,使得辅助打字应用可以逐步优化,提高用户的体验。研究结果表明,X2T可以学习超越非自适应默认接口、个性化接口并可利用线下数据加速在线学习。
Mar, 2022
采用先前任务学习得到的先验知识,我们提出了一种串联的前两名Thompson抽样算法(Sequential Top-two Thompson Sampling, STTS),将广义多臂老虎机中的最佳臂序列问题视为一系列任务。这种算法取得了实质性的实验性改进。
May, 2023
Brain-Computer Interface (BCI) systems have specific constraints for clinical contexts, but HappyFeat, an open-source software, simplifies Motor Imagery (MI)-based BCI experiments by automating experiment and analysis parameters, allowing for effortless feature selection and good BCI performance in time-constrained environments.
Oct, 2023
通过使用基于大型语言模型的用户界面,以高度缩写的形式进行文本输入,提高了使用AAC设备的运动受限用户的文本输入速度。对于那些需要眼球追踪键盘等辅助和替代交流设备的人来说,这种方法可以节省大量的操作,实现更快的文本输入速度。
Dec, 2023
本综述论文提供了应用于脑机接口的可解释人工智能技术的整合视角。对大脑信号进行解释的预测模型在各种高风险应用中使用。然而,在这些复杂模型中实现可解释性是具有挑战性的,因为这会损害准确性。为了解决脑机接口的可解释性需求,提出了可解释人工智能为脑机接口的综合框架 (XAI4BCI) 的文献缺乏整合视角的问题。该研究通过系统性回顾和元分析提出了六个关键的研究问题,涵盖了XAI在脑机接口的目的、应用、可用性和技术可行性方面。本研究结果强调当前研究主要集中在解释性方面,旨在为开发人员和研究人员提供成果的解释并增强模型性能。研究还从哲学、心理学和社会科学中获取了独特的方法、优势和限制。同时,提出了一种面向 XAI4BCI 的设计空间,考虑到为脑机接口发展和部署生命周期中的各利益相关方定制可视化和研究预测模型结果的不断需求。本论文是第一篇仅专注于回顾 XAI4BCI 研究文章的论文。该系统性回顾和元分析结果与提出的设计空间引发了关于建立BCI解释标准的重要讨论,并突出了当前的局限性,指导了XAI在BCI领域的未来发展。
Dec, 2023
通过非侵入式设备从大脑活动中解读自然语言仍然是一个巨大的挑战,本文提出了一种新颖的方法,通过三维卷积网络和信息瓶颈技术对单次非侵入性功能磁共振成像记录进行连续语言解码,该解码器能够生成捕捉到感知语音含义的可理解文本序列,并在跨受试者场景中表现出明显优于现有解码器的性能,展示了非侵入式语言脑机接口在医疗保健和神经科学领域的应用前景。
Mar, 2024
本研究通过对开放式脑机接口(BCI)的广泛再现性分析,旨在评估现有解决方案并建立可比性强的开放和可复制的基准,以便有效地比较该领域内的不同方法。研究结果表明,在各种BCI范式中,利用空间协方差矩阵的Riemannian方法显示出卓越的性能,强调了数据量的重要性,以达到与深度学习技术具有竞争力的结果。该研究的意义在于为BCI研究建立了严格和透明的基准,提供了最佳方法的见解,并强调了推动该领域发展所需的再现性的重要性。
Apr, 2024
该研究论文通过创新的“跨主体”分类器解决基于P300的多主体分类器训练中遇到的常见速度限制问题,并通过使用第二代GPT2和Dijkstra算法来优化刺激并根据打字历史建议单词补全选择,以及使用多层平滑技术来适应词汇表以外的词汇,通过广泛模拟从受试者中随机抽样的脑电图数据,证明了在包含罕见和词汇表以外词汇的打字段落中,显著提高了打字速度约10%的改进,并在多词预测中提高了多达40%的改进。研究证明,将传统的行/列突出显示技术与分层单词预测相结合可以实现接近最优的性能。此外,研究还探讨了“同主体”和“跨主体”训练技术,结果表明速度的改进在这两种方法中都是一致的。
May, 2024
本研究提出了一种使用多重对齐框架将脑电信号转换为文本的新方法,通过在MEG信号中直接生成全新的文本,实现了令人印象深刻的BLEU-1得分,极大地超越了基线模型,显示出实现BCI研究的潜力。
Jun, 2024
传统侵入性脑机接口通常依赖于在实验室环境中工作站上进行的神经解码过程,制约了其日常使用。本研究旨在识别一种在边缘设备上实施的具有强大性能和快速推理能力的最佳神经解码框架。通过进行一系列神经解码实验,评估四个潜在的模型(Gated Recurrent Unit(GRU), Transformer, Receptance Weighted Key Value(RWKV)和Selective State Space model (Mamba))在多种指标上的表现,如单次会话解码、多次会话解码、新会话微调、推理速度、校准速度和可扩展性。研究结果表明,虽然GRU模型提供了足够的准确性,但RWKV和Mamba模型由于具有更优异的推理速度和校准速度而更可取。此外,RWKV和Mamba符合比例定律,在较大的数据集和增加的模型大小下表现出更好的性能,而GRU的可扩展性不太明显,Transformer模型要求的计算资源过大。本文在各种场景下对这四个模型进行了全面的比较分析。研究结果对于确定能够处理不断增长的数据量并可用于边缘实施的最佳框架至关重要,为该领域的持续研究和实际应用提供了重要见解。
Jun, 2024