As the practicality of artificial intelligence (AI) and machine learning (ML)
based techniques grow, there is an ever increasing threat of adversarial
attacks. There is a need to red team this ecosystem to identi
通过对 AI 工业界最近的红队活动案例和相关研究文献的调查,我们发现先前的 AI 红队方法和实践在多个方面存在差异,包括活动目的、评估对象、实施方式和所得出的决策。鉴于我们的发现,我们认为虽然红队可能是一个有价值的广义概念,用于描述一系列旨在改善 Generative AI 模型行为的活动和态度,但宣称红队是解决一切可能风险的万灵药则属于安全戏剧。为了更好地评估生成 AI,我们将我们的建议综合成一个问题库,旨在指导和规范未来的 AI 红队实践。
通过整合人工智能 / 机器学习(AI / ML)和数字孪生(DT)技术,工业 4.0 见证了复杂机器人的崛起。本文调查了针对 AI 和 DT 模型启用机器人的隐私攻击。讨论了 ML 模型的渗透和数据泄露,以及从一阶模型(如基于物理的模型)中提取模型的潜在能力。我们还讨论了 DT 集成机器人的设计考虑,涉及 ML 模型训练、负责任的 AI 和 DT 保障、数据治理和道德考虑对这些攻击的有效性的影响。我们主张一个可信的自治途径,强调将机器人、人工智能和数字孪生技术与强大的道德框架和可靠性原则相结合,以实现安全可靠的 AI 机器人系统。