Jan, 2024

人工智能的真实火花与内在可解释性的重要性

TL;DR通过研究 Microsoft 工程师进行的关于 GPT 智能的一篇详尽论文,本文认为现有的黑匣子可解释性研究方法是错误的,并推崇了一种内部可解释性的替代方法,以了解模型的内部激活和权重,以及它们的表示和实现算法,以此认识到智能和理解涉及的过程在意义上是重要的。同时,本文指出了内部可解释性与哲学对智能要求的可信合理的关系,以及如何进一步利用哲学概念来改进内部可解释性的方法,并呼吁哲学家与计算机科学家在未来进行双向的有益交流。