基于视频分析揭示自闭症谱系障碍者的非典型社交注视
本研究使用姿态和步态活动视频进行自闭症分析,通过回归自闭症诊断观察量表分数,识别患有自闭症的儿童及其条件的严重程度,并提出了一个有效特征来展现不规则的姿态模式,通过双流协同学习框架全面理解姿势和自闭症之间的关系。
Apr, 2023
该研究使用儿童玩耍和互动时的视频片段为基础数据集,提出了一种几何精确的预测儿童与成年人的视线目标的模型,该模型使用深度推断方法对场景进行3D视野场地构建,并在公开数据集和儿童玩耍数据集上达到最先进的结果。
Jul, 2023
在这篇论文中,我们利用两种不同的图像处理操作来研究这些过程如何学习眼动追踪模式,并提出了一种简单而有效的方法,将 involution 与 convolution 相结合,使其成为一个深度学习模型的位置特定能力的混合。我们调查了我们的方法在分类眼动追踪模式方面表现良好的原因。对于比较分析,我们对两个独立的数据集以及两者的组合版本进行了实验。结果表明,具有三个 involution 层的 IC 方法优于先前的方法。
Jan, 2024
我们通过分析从心理学家与典型发育或患有自闭症谱系障碍(ASD)的儿童之间的诊断对话中提取的声学/韵律和语言特征,提出了一种ASD诊断的建模方法。我们比较不同特征在一系列对话任务中的贡献,并着重寻找表征患有ASD的儿童对话行为的最小参数集。除了分析儿童的行为外,我们还研究心理学家的对话行为是否在不同的诊断群体之间有所变化。我们的结果有助于对ASD儿童的对话数据进行细粒度分析,以支持诊断和干预。
Jan, 2024
使用来自ABIDE I数据库的结构性磁共振成像(sMRI)数据,评估受试者的状况和不同中心之间的差异,揭示自闭症和正常对照组之间的结构性脑区别的局限性。
Apr, 2024
本文介绍了一种新颖的问题,即视听自闭症行为识别,其中包括社交行为识别,这是之前在AI辅助自闭症筛查研究中被忽视的一个重要方面。我们将所面临的任务定义为视听自闭症行为识别,它使用音频和视频提示,包括音频中的任何语音,来识别与自闭症相关的行为。为了促进这个新的研究方向,我们收集了一个音视频自闭症谱系数据集 (AV-ASD),目前是使用行为方法进行自闭症筛查的最大视频数据集。它涵盖了广泛的与社交交流和互动相关的自闭症行为。为了为进一步研究这个新问题铺平道路,我们深入探讨了在不同模态之间利用基础模型和多模态大语言模型。我们对AV-ASD数据集的实验表明,整合音频、视觉和语音模态显著提高了自闭症行为识别的性能。此外,我们还探索了在多模态大语言模型中使用后处理至临时处理流程,以调查其在自闭症行为识别过程中增强模型解释能力的潜力。我们将发布我们的数据集、代码和预训练模型。
Mar, 2024
本研究解决了在真实课堂环境中快速识别和准确记录自闭症谱系障碍(ASD)中干扰和高风险行为的问题。通过先进的视频基础群体活动识别技术,我们提出了一种能够在保护隐私的同时量化行为的可解释模型,其F1-score达77%。该研究为开发有效的数据收集工具奠定了基础,从而减轻了课堂工作人员的工作负担。
Jul, 2024
本研究解决了自闭症谱系障碍(ASD)早期检测的不足。通过利用手机应用程序GuessWhat收集的自然视频数据,我们开发了基于LSTM的模型并采用集成技术,显著提高了诊断准确性,整体AUC达到90%。这一方法在早期检测ASD方面具有重要意义,可能减少对主观评估的依赖,使早期识别更加可及和公平。
Aug, 2024
本研究解决了准确诊断自闭症谱系障碍(ASD)在年轻儿童中的难题,特别是在数据可用性方面的不足。提出了视频ASD数据集,包含2,467个视频的特征数据,展示儿童对化学感官刺激的反应,旨在促进ASD分类的进展。研究发现,运动噪声对模型性能的影响凸显了复杂标签和更多数据需求的重要性。
Sep, 2024
本研究解决了自闭症儿童注视模式分析中传统方法依赖手动识别兴趣区域的局限性。我们提出了一种新的方法,利用七种聚类算法自动分组注视点,并提取63个特征用于描述注视模式与自闭症诊断之间的关联。实验结果表明,该方法在分析自闭症儿童独特注视模式和预测诊断方面具有显著的准确性和优越性。
Sep, 2024