通过信息交互竞争规范聊天机器人的输出
论文将新的生成模型 LGAIMs 置于当前的信任人工智能法规辩论中,并探讨如何量身定制法律条款以适应其能力,主要包括直接管制、数据保护、内容管理等,并提出四种策略以确保 LGAIMs 可信并为社会利益服务。
Feb, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
通过对市场理论和 ChatGPT 的比较,本研究发现它们展示了至少四个共同特点:竞争场所、手段、目标和缺陷,从而使得 ChatGPT 成为历史上最符合实现市场理论的引擎。该研究还主张 AI 内容风险不应该由 AI 公司承担,而应该由不同社会角色来共同承担。
May, 2024
通过引入贝叶斯框架,研究了与生成人工智能合作时可能出现的一种情况:用户可能会获得生产力的提高,但人工智能生成的内容可能无法完全符合他们的偏好。我们揭示了个体决策与人工智能训练之间的相互作用可能导致社会性挑战,输出结果可能变得更加同质化,特别是当人工智能基于人工智能生成的内容进行训练时。解决同质化和偏见问题的方法是改进人工智能与人类的交互,实现个性化输出而不损失生产力。
Sep, 2023
通过将 ChatGPT 暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和 / 或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台 Kialo 创建的数据集来进行探索。我们的研究结果表明,尽管 ChatGPT 的以前版本在争议性话题上存在重要问题,但最近的版本 (gpt-3.5-turbo) 在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了 “哲学” 类别外,ChatGPT 在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI 的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
通过建立 AI 监管市场来解决立法者缺乏专业知识,行业自我监管难以满足民主要求等问题,这个监管市场能够使政府建立 AI 监管的政策优先级,并依赖市场力量和行业研发力量推动实现政策目标的规范化方法。
Apr, 2023
本文探讨如何规范人工智能系统,研究发现通过两个公共部门采购清单可标识现在和未来技术创新方面的人工智能是否符合规定要求,并且确认需跨学科合作来满足某些要求。
Jun, 2023
为了最大化人工智能技术的好处并最小化其风险,我们需要一个国际的人工智能治理框架,包括一个新的人工智能监管机构来制定规范统一的 AI 技术标准并协调世界各地的政策制定。
May, 2020
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本文展示了该监管的具体方法、优点和缺点,有助于更好的理解 AI 和监管之间的关系及其中的规范决策。
Sep, 2022