从开普勒到牛顿:用可解释的人工智能探索科学
在人工智能时代,人类复杂推理对于科学发现仍然至关重要,但可以通过可解释的人工智能利用人工智能系统来进行科学发现。具体而言,了解人工智能系统用于做出决策的数据可以与领域专家和科学家进行接触,并在给定的科学问题上产生不同或相同的观点。这些观点可能会引发进一步的科学调查,从而产生新的科学知识。这种方法可以满足应用科学中的可信度要求,如医学。
Jun, 2024
这篇报告对数据驱动方法 - 特别是机器学习和模式识别模型进行了综述和总结,以便于业界从业者和数据科学家更好地理解 “可解释的人工智能” 的领域并应用正确的工具。
Sep, 2020
本篇论文主张从现有的可解释人工智能 (XAI) 模型转变到基于评价的人工智能 (Evaluative AI) 以减轻提供推荐的对人类决策制定的限制和不对人类决策制定的认知过程考虑不足带来的问题,并更好地利用人类决策制定的专业知识。
Feb, 2023
本文回顾了可解释的机器学习,探讨了在自然科学领域应用中的透明度、可解释性和解释性三个核心要素,并提供了结合应用领域的领域知识使用可解释的机器学习的最近科学作品的概述。
May, 2019
综述了科学自动化发现的各种方法,从方程式发现和符号回归到自主发现系统和代理人等,着重讨论了深度神经网络在这一领域中的各种角色和作用,并探讨了达到最大水平 —— 第五级的自主性所需的条件,以实现无需人工干涉的科学发现。
May, 2023
本文以科学哲学理论作为分析视角,研究解释性方法在神经网络性能评估中的应用,并发现解释性方法的实用性依赖于人类领域知识和理解推理能力。本研究得出结论,基准测试解释性方法是迈向可信人工智能和机器学习的中心任务。
Aug, 2022
自动化整个科学方法论需要数据归纳的自动化以及实验从设计到实施的自动化,机器人科学家是将人工智能和实验室机器人相结合,具备进行真实世界实验检验假设的能力。本章探讨了机器人科学家在科学哲学中的基本原理,并将其活动与机器学习范式相对应,认为科学方法与主动学习有类似之处。我们使用以往机器人科学家的案例以及 Genesis 的案例进行实证,Genesis 是一种面向系统生物学研究的下一代机器人科学家,具备 1000 个计算机控制的微生物反应器的微流控系统和基于可控词汇和逻辑的可解释模型。
Jun, 2024
机器学习算法通过天文观测单独发现或学习开普勒第一定律,我们使用受物理启发的符号回归工具 AI Feynman 来模拟约翰尼斯・开普勒使用鲁道夫表发现了火星轨道方程。
Dec, 2023
近年来,人工智能迅速加速其影响力,如果得到恰当利用,将促进地球系统科学的发展。解释性人工智能(XAI)提供了一套强大的工具,可以使模型更加透明。本文旨在为地球系统科学学者提供对 XAI 的基本理解,作为未来研究进展的基础,并鼓励地球系统科学专业人员接受人工智能的好处,克服解释性不足带来的偏见。希望通过融合 AI 和领域特定知识的可解释性混合方法来增强人工智能在地球系统科学中的实用性。
Jun, 2024