仅靠原则无法保证道德人工智能
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
本文分析比较人工智能伦理指南的规范原则、建议和忽略之处,提供了对人工智能伦理领域的详细概述,并研究这些伦理原则和价值观在人工智能系统研究、开发和应用实践中的实现程度。最终,本文探讨了如何提高人工智能伦理的有效实施。
Feb, 2019
本文介绍了 LAIP 的平台链接和分析不同机构提出的人工智能原则,旨在明确建立不同组织提出的人工智能原则之间的共同主题和联系,并调查其独特性。基于这些努力,我们提出,为了人工智能的长期未来,需要将各种人工智能原则纳入一个全面的框架中,并关注它们如何相互作用和完善。
Dec, 2018
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
本文讨论了人工智能在医疗领域中的应用,特别是在医学图像分析中的最新进展、现有标准以及应用人工智能所需考虑的伦理问题和最佳实践。我们探讨了人工智能的技术挑战和伦理挑战,以及在医院和公共组织中部署人工智能的影响和关键技术措施。最后,我们提出了未来解决人工智能在医疗应用中的伦理挑战的建议和方向。
Apr, 2023
我们提出了 GREAT PLEA 伦理原则,涵盖了在医疗中应用生成型人工智能所面临的治理、可靠性、公平性、问责制、可追溯性、隐私、合法性、同理心和自主性等伦理困境和挑战。
Aug, 2023
本文利用数据可视化的工具对 200 个标准化和指导人工智能发展的文件进行分析,探讨不同机构之间原则的共识和相似性,以此为未来的政策制定提供启示和引导。
Jun, 2022
在美国,本研究聚焦于人工智能的伦理及其应用,强调了人工智能在美国经济各个领域以及技术空间的多个方面所产生的影响,以及对企业、政府、学术界和公民社会的影响。论文探讨了 11 个基本的 “伦理原则”,涵盖了透明度、公正、公平、平等、非恶性、责任、问责、隐私、利益、自由、自治、信任、尊严、可持续性和团结。这些原则共同构成了一个指导框架,指导着人工智能技术在美国各个领域和实体中的负责任和伦理发展、部署和利用。论文还讨论了人工智能应用,例如机器学习的革命性影响,并探讨了实施人工智能伦理的各种方法。这次研究对于解决人工智能广泛使用所带来的潜在风险问题至关重要。
Oct, 2023