While artificial intelligence has the potential to process vast amounts of
data, generate new insights, and unlock greater productivity, its widespread
adoption may entail unforeseen consequences. We identify conditions under which
AI, by reducing the cost of access to certain modes of
本文通过实证研究(N = 249),探讨了 DKE 是否会影响人们适当地依赖 AI 系统,以及探讨这种影响是否可以通过教程干预和利用基于逻辑单元的解释来缓解。我们发现,自我高估的参与者往往会表现出对 AI 系统的不足依赖,这阻碍了最佳团队表现。然而,教程干预对于高估自我评估的参与者来说非常有效,可以帮助他们校准自我评估并促进适当的依赖。本研究对设计解决用户认知偏差、促进在 AI 系统上适当依赖的方法具有广泛的启示性意义。
人工智能的崛起已经在许多行业中引发了革命性的变革,其广泛应用导致了 AI 和其底层数据在许多智能系统中的分布。本文针对分布式学习中的私有知识共享提供了一项深入调查,检验了在主要的分布式学习架构中使用的各种知识组件。通过分析,我们揭示了在分布式环境中使用这些组件时可能出现的最关键的安全漏洞。我们进一步确定和研究了保护这些知识组件隐私和防止恶意方干预或访问知识信息的防御策略。最后,我们强调了分布式学习中知识共享的一些关键限制,并探索了未来研究的潜在途径。