A series of recent papers raises worries about the manipulative potential of
algorithmic transparency. But while the concern is apt and relevant, it is
based on a fraught understanding of manipulation. Therefore,
使用机器学习的 AI 决策算法越来越普及,在诸如保释听证会、医疗诊断和招聘过程中使用。本文旨在通过探讨透明度和不透明性的因果解释,以及最近有关因果解释价值的工作,为算法的不透明性提出了一个道德关注点:当这些算法用于改变人们生活的决策时,它们会妨碍我们根据我们的目标和偏好有效地塑造自己的生活,从而削弱我们的自主权。作者认为这个问题值得密切关注,因为它为算法决策中的透明度提供了新的工具和新的挑战。