- 开源生成型人工智能的风险与机遇
开源生成性人工智能(Gen AI)的应用在许多不同领域中具有革命性的潜力,可能引发对技术潜在风险的热烈讨论和对更严格监管的呼声。本研究使用三阶段框架对开源生成性人工智能模型的风险和机遇进行分析,并认为开源 Gen AI 的好处超过了风险,因 - 审视数字资产作为财产的法律地位:不同管辖区的比较分析
这篇论文研究探讨了围绕数字资产的复杂法律环境,分析了不同司法管辖区内数字资产作为财产的定义和监管方式。通过比较分析不同法律体系对数字资产在财产法中的分类和管理,突出了监管方法的差异及其对所有权、转让和继承权的影响。通过研究一些主要司法管辖区 - 开源生成式人工智能的近中期风险与机遇
近年来,生成型人工智能的应用预计将在多个领域引起革命性的改变,领域范围涵盖科学、医学和教育等。这种巨大变革的潜力引发了有关潜在风险的激烈辩论,并引起了一些主导 AI 开发的科技巨头呼吁加强监管的声音。然而,这种监管可能会对开源的生成型 AI - AI 采购检查清单:在 AI 治理时代重新审视实施
公共部门使用人工智能的情况在过去十年中悄然上升,但直到最近,对其进行规范的努力才进入文化潮流。本文通过研究巴西、新加坡和加拿大的官员,总结了监管政府人工智能使用的经验教训,提出了改进途径,着重讨论了技术专长、风险框架和透明度三个关键问题。
- 人本可信的自动决策系统
自动决策系统(ADS)在各个领域和职业中已经普遍存在,以提高性能。然而,这种广泛采用引入了潜在风险,包括 ADS 的滥用。本研究论文对数字化、数字转型和 ADS 在当代社会和未来环境中的应用所涉及的影响、区别和伦理考虑进行了全面的研究。强调 - 基于基础模型的市场集中度影响
大规模 AI 模型的市场结构和竞争政策的影响分析,强调竞争机构需解决垄断现象并确保规范监管以最大限度地促进社会福利。
- EMNLP规范和自然语言处理:驯服大型语言模型
自然语言处理和人工智能方面的科学创新正在以前所未有的速度发展。当前关于其发展、应用和使用的利益和风险的辩论主要由 AI 安全和 AI 伦理运动主导,而在 NLP 研究中,对风险和危害监管的讨论越来越多,但缺乏系统的方法论和与相关领域的深入联 - 人工智能革命:金融行业的机遇与挑战
人工智能在金融业的潜力正在改变行业,但也带来了一些挑战。这份报告讨论了金融行业中人工智能应用的关键问题,包括透明度、解释性、公平性、问责制和值得信赖性。它还强调了对人工智能的合理管理和监管的重要性,为学术界、金融业和监管机构提供了建议。
- 为可验证的人工智能提供模型报告:将欧盟法规融入人工智能开发的提案
在本研究中,我们结合欧洲联盟的最新监管努力和针对 AI 指南的初步提案与研究趋势:数据和模型卡片。我们建议在整个开发过程中使用标准化卡片来记录 AI 应用,主要贡献是引入了用例和操作卡片,并对数据和模型卡片进行了更新,以满足监管要求。我们的 - 前沿人工智能规管:管理新兴公共安全风险
前沿 AI 模型的安全性规范与公共安全风险需求有关。建立标准设置流程、注册报告需求以及合规机制是对前沿 AI 模型进行规范的必要步骤。产业自律是重要的第一步,但还需要社会广泛讨论和政府干预以确保规范的制定和遵循。将执法权力授予监管机构和颁发 - 运用四种方法评估通用人工智能系统的定义
欧盟的人工智能法案旨在规范人工智能技术,明确区分具有固定目的和具有广泛目的的系统,并提出了四种方法来判定是否将人工智能系统分类为广泛目的系统。
- 大型语言模型人性化科技
这篇文章着重探讨了大型语言模型对人类价值、劳动力市场的影响以及需不需要对它们进行监管等问题,同时,它们也能更好地人性化技术,并且可以克服当前技术所面临的瓶颈问题。因此,我们应该更广泛地了解和推广 LLMs 以及简化 LLMs 使用的工具和方 - ChatGPT 的暗面:来自随机鹦鹉和幻觉的法律与伦理挑战
ChatGPT 和大型语言模型(LLM)对我们的社会产生了根本性的影响,如 Bing 中的 GPT 集成改变了我们的在线搜索方式。然而,随着 LMM 的发展,新的法律和伦理风险也出现了。欧盟是第一个重视 AI 模型监管的司法管辖区,但新 L - 一个用户驱动的社交媒体监管和审计框架
该研究探讨如何通过基于用户选择的算法过滤器的灵活管控,以及基这一选定标准进行社交媒体平台的审查和审核,从而平衡监管和自由表达之间的关系。
- 监管市场:人工智能治理的未来
通过建立 AI 监管市场来解决立法者缺乏专业知识,行业自我监管难以满足民主要求等问题,这个监管市场能够使政府建立 AI 监管的政策优先级,并依赖市场力量和行业研发力量推动实现政策目标的规范化方法。
- AI 法案估计影响的数量研究
对欧盟 AI 规则的初稿进行了分类,并与计算机科学和法律专家一起将其按照 AI 法案进行分类,表明需要更加明确具体的规定,并且只有大约 30%的 AI 系统被 AI 法案约束,其余分类为低风险。
- 协调可解释 AI 和法律:欧洲视角
本研究探讨了欧盟提出的《人工智能法案》中涉及的 AI 监管,特别关注了卫生保健等高风险领域中使用的 AI 系统的透明性和可解释性的要求。研究发现,XAI 解决方案与 AI 法案的要求存在显著差异,因此认为律师和 XAI 研究人员之间的合作至 - 评估法规和标准对人工智能领域创新的影响
本文批判性地探讨了监管在 AI 领域中抑制创新的观点,讨论了目前 AI 监管的趋势,特别是提出的欧洲 AI 法案及支持其实施的标准,分析和批判了支持监管抑制创新观点,并提出了替代性观点,阐明监管和标准如何促进 AI 领域的创新。
- 伦理道德作为人工智能治理工具的效率
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智 - 解决问题,收获利益 ——AI 监管争议的系统回顾
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本