- 在真实的临床环境中部署深度学习模型:产科超声案例研究
AI 模型在医学图像分析中的发展快速,但在临床实践中的验证仍有限。为了解决这个问题,我们介绍了一个适用于在此类环境中部署基于图像的 AI 模型的通用框架。使用该框架,我们部署了一个用于胎儿超声标准平面检测的训练模型,并在实时会话中与初学者和 - 惯性测量单元基于跨模态迁移学习在人体活动识别中的调查
人类行为 / 动作识别中,通过跨模态转移学习,介绍了人工智能模型、IMU 数据和多模态学习的重要性以及它们的应用潜力。
- 一种基于人工比较的概率对齐方法
探究人类比较对传统监督微调过程的改善条件,提出一种连接机器学习和人类反馈的两阶段框架,并利用概率二分法通过学习低维表示和使用人类比较来改善模型对齐,进而减少样本复杂度,实验证明该框架在降噪数据和高维模型中的优势。
- 文档索引的未来:GPT 和 Donut 革新目录内容处理
该论文介绍了一种创新方法,利用两个先进的 AI 模型 (Donut 和 OpenAI GPT-3.5 Turbo) 自动从复杂的规范文档中提取结构化信息,通过获取建筑规范文档的目录,将目录文本结构化为 JSON 数据,实现了卓越的准确性 ( - 能源高效驾驶行为与应用最新人工智能方法的范围性审查
该研究通过广泛的文献综述,分析了影响能源消耗的驾驶行为因素和最先进的方法,并给出了包括能源高效驾驶风格特征、推荐的九种能源高效驾驶风格以及为不同类型的驾驶员和雇主提供的两个主观建议。
- CVPR走向通用肿瘤合成
利用计算机断层扫描(CT)检查中早期肿瘤的相似成像特征,本研究使用生成式人工智能模型制造现实感肿瘤,可以泛化到多个器官,并且所得到的模型可以在不同机构的 CT 图像中检测和分割真实肿瘤。
- 立足于 FURM 框架之上 —— 评估医疗系统中公平、有用和可靠的 AI 模型
使用人工智能(AI)指导患者护理或操作过程的影响是 AI 模型输出、基于该输出的决策制定协议以及参与方采取必要后续行动的相互作用。斯坦福医疗保健的数据科学团队开发了一种 “公平、有用和可靠 AI 模型(FURM)” 的机制,通过进行伦理审查 - 基于多组学数据的个体逆因果治疗建议的机器学习框架:走向面向 AI 的精准肿瘤学
AI 驱动的精准肿瘤治疗具有转变癌症治疗的潜力,通过利用 AI 模型分析复杂患者特征与相应治疗结果的相互作用,以及新技术平台提供的多模态肿瘤生物学数据,开展数据驱动的临床决策改进研究。该研究提出了一个模块化机器学习框架,旨在通过一组训练于多 - 基于人工智能的汽车应用软件元素具备的固有多样冗余安全机制
通过研究自动驾驶系统中基于人工智能的算法,本文探讨了人工智能模型的作用和挑战,特别是在复杂和高维环境中执行实时关键功能的软件元素。针对安全关键应用,为了减少 AI 模型过于自信带来的风险,提出了一些培训方法,如实现确定性报告架构和确保多样性 - 神经哨兵:保护神经网络的可靠性和可信性
为了解决人工智能模型的可靠性和可信度问题,本文提出了一个名为 NeuralSentinel(NS)的工具,结合攻击和防御策略以及解释性概念来验证 AI 模型的可靠性和可信度,并帮助非专业人员通过理解模型决策来增强他们对这一新系统的信心。该工 - ContPhy: 从视频中学习和推理连续物理概念
我们引入了连续物理数据集(ContPhy),这是一个用于评估机器物理常识的新型基准。通过涵盖不同场景中的多样化物理属性推理以及对应的动力学预测,ContPhy 补充了现有的物理推理基准。我们评估了一系列 AI 模型,并发现它们在 ContP - AI 模型卡片中的记录:对 32K 个 AI 模型卡片进行系统分析
通过对 AI 模型的 32,111 份文档进行全面分析,我们发现 AI 模型的文档化做法存在不足,其中环境影响、限制和评估等方面填写的比例最低,而训练部分则是填写最完整的。此外,我们发现数据的讨论相当重要,有时甚至比模型本身还要强调。通过将 - 定位论文:朝着研究模型表示的新框架
通过文献综述,我们对特征和行为进行了正式化,并强调了它们的重要性和评估,以及在研究表示的机制性解释性方面进行了基本的探索。通过讨论和探索性结果,我们证明了研究表示是一个重要且未被充分研究的领域,当前的机制性解释性方法不足以理解表示,因此推动 - 通过集成学习和正则化微调解决偏差问题
通过多种方法解决 AI 模型中的偏见问题,使用较小的数据集和可能存在偏见的预训练模型,通过数据分割、局部训练和正则化微调训练多个模型,然后使用集成学习获得不带偏见的预测结果,最后通过知识蒸馏形成单一不带偏见的神经网络模型,实验证明了我们方法 - 在面向患者的风险预测模型中进行语言沟通不确定性
关于在医疗领域中应用人工智能模型时存在的不确定性量化问题以及与之相关的沟通和评估挑战,本文提出了一种针对风险预测的自然语言交流模型设计方案。
- SNAP:用于下一次活动预测的语义故事
借助语言基础模型,构建语义上下文故事从而准确预测下一步活动的 SNAP 算法在业务流程管理和人工智能模型方面具有显著优势。
- 分析开放存储库中 AI 视觉模型在对抗攻击下的质量属性
我们提出了一个集成的过程,用于验证 AI 模型的准确性、评估其鲁棒性以及比较解释效用,并展示了六种计算机视觉模型在不同扰动和 XAI 方法下的评估结果。
- FIMBA: 通过特征重要性对抗攻击评估基因组学 AI 的鲁棒性
AI 在生物技术应用和基因组测序中的持续增长以及广泛采用影响到药物发现和临床结果等重要决策流的 AI 模型的脆弱性,本文展示了将重点放在输入转换上的攻击通过模仿真实数据和混淆模型决策,最终导致模型性能显著恶化;此外,通过使用基于变分自动编码 - 揭示口型不一致的唇同步深度伪造技术
本文描述了一种基于口腔不一致性(LIPINC)的新方法来检测唇同步深度伪造视频,通过识别口腔区域的时间不一致性,可以成功捕捉到这些不规则,相比现有的方法,在多个基准深度伪造数据集上表现更好。
- 通过专业测试评估人工智能职业技能
通过一项新型的专业认证调查,本研究重点评估了两个引用率较高的 AI 模型 GPT-3 和 Turbo-GPT3.5 的职业技能。该研究强调实践准备的重要性,通过考察模型在由 1149 个专业认证组成的基准数据集上的表现,与人类测试成绩进行比