Aug, 2023

有害 AI 言论的责任在哪里?

TL;DR基于大量信息训练的生成式人工智能(特别是以文本为基础的 “基本模型”)在产生问题性言论方面可能面临不同责任体系的风险。因此需要对这些模型进行 “红队测试”,以识别和缓解潜在的问题性言论。本研究考察了三种责任体系,并将其与普遍的红队测试模型行为进行关联:诽谤、涉及犯罪行为的言论以及错误死亡。研究发现,对于生成式言论模型的 Section 230 免责分析或下游责任分析密切关联于算法设计的技术细节。文章主张在这些情况下 AI 不应被绝对地免除责任。法院和决策者在评估这些问题时应慎重考虑所造成的技术设计激励措施并需同时应对平台算法的复杂性。