关于人工智能在科学认知中的应用
现代生命科学研究越来越依赖于人工智能方法来模拟生物系统,主要集中在使用机器学习模型上。然而,机器学习在生物科学中的广泛应用表明其与传统科学探究方法存在显著差异,这种相互作用对未来的科学研究具有重要意义,但却受到较少关注。在本研究中,我们借鉴认识论工具集,将机器学习在生物科学中的最新应用放入现代哲学理论的框架下,以识别可指导机器学习系统为生物现象建模和推动科学知识进展的一般原则。我们提出,科学理解作为信息压缩、定性可理解性和依赖关系建模的概念,为解释机器学习介导的生物系统理解提供了有用的框架。通过对现代生物研究中机器学习的两个关键应用领域 —— 蛋白质结构预测和单细胞 RNA 测序的详细分析,我们探讨了这些特征迄今如何使机器学习系统推进对目标现象的科学理解,以及它们如何指导未来机器学习模型的发展,以及阻碍机器学习实现其作为生物发现工具潜力的关键障碍。考虑机器学习在生物学应用中的认识论特征将改善这些方法解决重要问题和推进对生命系统科学理解的前景。
Mar, 2024
基于 AI 在自然语言理解和生成方面的革命性进展,我们设计了能够解决复杂科学任务的 AI 系统,并将自然语言作为 AI 与人类科学家之间的核心表示、推理和交换格式。本文旨在探讨实现这一愿景所面临的主要研究挑战。
Oct, 2022
本文为 AI4Science 领域中的一个子领域 —— 量子、原子和连续系统的 AI 提供了技术上的全面介绍,重点在于探讨诸如如何采用深度学习方法捕捉自然系统物理第一性原理、特别是对称性等挑战。
Jul, 2023
自动化整个科学方法论需要数据归纳的自动化以及实验从设计到实施的自动化,机器人科学家是将人工智能和实验室机器人相结合,具备进行真实世界实验检验假设的能力。本章探讨了机器人科学家在科学哲学中的基本原理,并将其活动与机器学习范式相对应,认为科学方法与主动学习有类似之处。我们使用以往机器人科学家的案例以及 Genesis 的案例进行实证,Genesis 是一种面向系统生物学研究的下一代机器人科学家,具备 1000 个计算机控制的微生物反应器的微流控系统和基于可控词汇和逻辑的可解释模型。
Jun, 2024
在人工智能时代,人类复杂推理对于科学发现仍然至关重要,但可以通过可解释的人工智能利用人工智能系统来进行科学发现。具体而言,了解人工智能系统用于做出决策的数据可以与领域专家和科学家进行接触,并在给定的科学问题上产生不同或相同的观点。这些观点可能会引发进一步的科学调查,从而产生新的科学知识。这种方法可以满足应用科学中的可信度要求,如医学。
Jun, 2024
本文旨在探讨 “智能机器” 是否有能力理解人类语言,其中涉及了语法和语义之间的关系,指出了语义对于讨论建立 “有意识的机器” 这一问题的不可避免性,并得出结论:在当前技术发展的状态下,将智能视为一种任务解决工具,无需将理解归于机器。
Jul, 2022
人工智能方法将革新知识工作,生成式人工智能实现了文本分析、文本生成和简单的决策或推理的自动化。我们回顾了代理人工智能系统的现状,并讨论了如何进一步将这些方法扩展到科学研究中。我们提出开发外在皮层的构想,即人工合成的人类认知扩展。科学外在皮层可以设计为一群人工智能代理,每个代理单独优化特定的研究任务,并通过相互通信实现出现行为,大大扩展研究人员的认知和意愿。
Jun, 2024
在计算机科学和人工智能中,可解释性已经成为一个重要的话题,从而引出了一门称为可解释人工智能(XAI)的子领域。本概念性的文章旨在从跨学科的视角,将计算机科学、语言学、社会学和心理学整合,探讨在 XAI 和其他领域中理解及其形式、评估和动力学的模型。理解的两种类型被视为解释的可能结果,即使能型(知道如何做或决定某事)和理解型(知道某事)-- 两者程度不同(从浅到深)。解释通常从某一领域的浅层理解开始,可以达到深层的理解和使能,这被视为人类用户获得能动性的先决条件。在这一过程中,理解和使能性的增加高度相互依赖。本文还探讨了 XAI 中理解面临的特殊挑战。
Nov, 2023