心理健康ML系统的可用安全性框架
利用临床记录进行暴力风险评估是有价值的,本研究探索传统和深度机器学习方法,使用临床记录评估精神病患的暴力风险,发现其表现与目前使用的基于问卷的方法相当,其中基于BERTje的深度学习模型的表现较差。
Apr, 2022
本文综述了隐私保护机器学习在医疗保健领域中的应用,主要关注隐私保护的训练和推断,总结了现有趋势,识别了挑战,并讨论了未来研究方向。研究旨在引导隐私和高效的机器学习模型在医疗保健中的应用,并将研究成果转化为现实应用。
Mar, 2023
本文详细评估了ChatGPT在11个数据集上的心理健康分析和情感推理能力,分析了不同提示策略对其分析能力和可解释性的影响,并发现情感提示可以有效提高其性能,但需要正确的情感注入方式。
Apr, 2023
使用QA方法和统一QA模型在两个大型的精神健康数据集上评估心理健康风险,并通过差分隐私来保护用户数据,结果表明在精神健康用例中将风险评估建模为QA任务具有良好的性能,为隐私保护诊断系统的发展提供了一个有前途的研究方向。
Jun, 2023
本文提出了一种个性化心理健康监测和情绪预测系统,利用患者生理数据,并采用分散的学习机制结合传输和联邦机器学习,使数据留在用户设备上,在隐私和可追踪的方式下实现心理健康条件的跟踪和管理,从而为精神科治疗提供了一个新颖的解决方案。
Jul, 2023
我们引入了一种差分隐私的联邦迁移学习框架来增强数据隐私和丰富数据充足性,在压力检测方面通过一个案例研究评估了该框架,并发现该方法能够在确保隐私保护的同时提高10%的准确性和21%的回忆率。
Feb, 2024
通过在线社交媒体进行的人工智能驱动的心理障碍检测与解释性人工智能的最新发展,为精神卫生保健提供了全面的概述,旨在指导研究人员、从业人员和决策者发展心理障碍检测领域。
Jun, 2024
通过对有关心理健康支持的批判性问题的评估,本文提出了一个结构化框架,旨在应对与自主任务AI在心理健康领域的发展所相关的伦理和实际挑战,并定义了AI代理在支持心理健康方面的等级自主性、伦理要求和有益的默认行为。此外,评估了十种先进的语言模型,结果发现这些现有模型不能达到人类专业人员的标准,不能适应细微差别和理解上下文,可能导致用户受伤甚至加重症状。因此,需要探索解决方案来增强当前模型的安全性,以确保它们能可靠地检测和管理常见心理障碍的症状,从而避免对用户的伤害。这需要与我们研究中提出的伦理框架和默认行为相一致,强调模型开发人员有责任根据这些指南改进其系统,以防止当前人工智能技术对用户心理健康和安全造成风险。
Apr, 2024
本研究解决了心理健康聊天机器人的安全性和可靠性评估的不足,提出了一种包含100个基准问题和理想回应的评估框架,并通过心理健康专家的验证。研究显示,采用实时数据访问的代理方法在评估准确性上优于其他方法,为心理健康聊天机器人的安全性和可靠性提供了显著提升的方案。
Aug, 2024