Within the field of requirements engineering (RE), the increasing
significance of explainable artificial intelligence (XAI) in aligning
AI-supported systems with user needs, societal expectations, and regulatory
在需求工程领域中,可解释人工智能(XAI)在使 AI 支持系统与用户需求、社会期望和监管标准相一致方面的日益重要性已获得认可。简而言之,可解释性已经成为影响系统质量的重要非功能性要求。本文在批判性地研究所谓的权衡问题上提出了观点。我们认为最好以细致入微的方式来处理这个问题,包括资源可用性、领域特性和风险考虑。通过为未来的研究和最佳实践奠定基础,本工作旨在推动 AI 领域中的需求工程。