基于软件工程方法的 AI 驱动的法定推理
通过使用大型语言模型(LLM)、专家法律系统(即法律决策路径)和贝叶斯网络的方法,本文概述了一种应用于自主汽车方面的方法的原理证明,该方法旨在通过对 AI 代理控制设备的代理软件中编码现有规则,实现人工智能代理理解法律并与之推理的能力。
Mar, 2024
通过定制化的大型语言模型 (LLM) 代理,采用提示工程、启发式推理和检索增强生成的元素,以保持结构化信息,我们提出了一种高效的混合策略,利用 LLM 进行安全分析和人工智能与人类的协同设计,以提高软件工程和安全工程中的生成式 AI 的质量要求,并确保人类对生成式 AI 提供的建议负责,通过图形表述作为系统模型的中间表示,促进了 LLM 和图形之间的交互,以简化的自动驾驶系统为案例说明了我们的方法。
Apr, 2024
AI 和生成 AI 工具在研究发现和总结方面具有重要作用,通过生成语言模型可以更快地找到相关文献并提取研究论文的关键要点,对统计学家和数据科学家具有重要意义。
Jan, 2024
本研究旨在建立一个 AI 理解法律标准更广泛的框架,并通过遵循法律反馈(RLLF)进行强化学习,研究表明,在使用美国法院意见标准的大型语言模式方面,AI 在理解受托义务方面的准确性可达到 78%,表明 AI 在解释不确定状态下指令方面具有一定的理解能力,并为该能力的改进奠定基础。
Jan, 2023
人工智能对传统司法行业产生了重大影响。最近,随着 AI 生成内容的发展,人工智能和法律在图像识别、自动文本生成和交互式聊天等领域得到应用。然而,法律领域的大型语言模型的应用仍处于初级阶段。本文对法律领域的大型语言模型进行了全面调查,揭示了它们在司法系统中的应用。同时,我们还讨论了法律领域大型语言模型的实际实施,如为用户提供法律咨询和协助法官审理案件。此外,我们探讨了法律领域大型语言模型的局限性,包括数据、算法和司法实践。最后,我们总结了实际建议并提出了未来发展方向以解决这些挑战。
Nov, 2023
生成式人工智能和大型语言模型的出现标志着人工智能领域的范式转变。本文分析欧盟背景下产生式人工智能和大型语言模型的法律和监管影响,着重分析责任、隐私、知识产权和网络安全等方面。它批判性地审视现有和拟议的欧盟立法,包括《人工智能法案(AIA)》草案,以应对生成式人工智能和大型语言模型所带来的独特挑战。本文确定了立法框架中的潜在差距和不足,并提出建议,以确保生成模型的安全合规部署,使其与欧盟不断演变的数字环境和法律标准保持一致。
Jan, 2024
近年来,生成人工智能(GenAI)取得了一系列的成功,能够生成高质量的代码、自然语言和图像。接下来的任务是将 GenAI 技术整合到产品中,这是软件开发人员通常进行的任务。在本文中,我们着重介绍了两种与产品开发涉及的风险:数据保护和版权问题。这两个方面对于 GenAI 来说至关重要,因为这项技术涉及用于模型训练和生成输出的数据。我们总结了关于当前知识的关键方面,每个使用 GenAI 进行产品开发的软件开发人员都应该注意这些方面,以避免可能导致责任索赔的重大错误。
Apr, 2024