- 提高标准:通过生成进化测试研究大型语言模型的价值
该研究提出了 GETA 这一新颖的生成动态测试方法,通过动态地探测大型语言模型(LLMs)的道德基准,生成难度匹配的测试项目,并更准确地评估 LLMs 的价值观,为未来的评估范式奠定基础。
- 检测人工智能生成图像的双输入神经模型的开发
通过引入傅里叶频率分解和双分支神经网络架构,我们提出了一种可以检测人工智能生成图像的工具,有效解决了在道德层面上区分真实图像和虚假图像的难题,达到了与一些最先进的架构相当的性能。
- 仅仅因为我们扎营,并不意味着我们应该这样做:模拟酷儿声音的伦理学
语音克隆模型能否准确捕捉到 “同性恋语音” 并引发辩论,因合成音频距离实际同性恋说话人的语音风格越来越远,导致辨别度下降,而对于控制组则有相反的影响。然而,改进这类模型的能力涉及很多风险,并引发对建模酷儿语音伦理道德性的讨论。采集 “干净” - 朝着约束合规的目标规划与计划
在一个简单的领域中,我们探索了在不同伦理框架中知识的编码如何影响代理人的目标制定和规划过程,并展示了代理人在相关约束的集合中包含各种类型的 “硬性” 和 “软性” 约束时满足和满足的能力。我们研究了代理人如何尝试遵守伦理约束,这取决于伦理框 - 大型语言模型中情感和语言模型的融合,用于道德合规
这项研究开发了用于大型语言模型(LLMs)更好地管理与情感和伦理有关的语言行为的先进方法。我们引入 DIKE,这是一个对抗性框架,可以增强 LLMs 内化和反映全球人类价值观的能力,以适应不同的文化背景,以促进用户之间的透明度和信任。该方法 - AI 诱发事件中的责任归因:一种用于问责的计算反思均衡框架
人工智能引入的广泛整合在涉及 AI 系统的事件中引入了复杂的责任和问责挑战;本文提出了一种计算反思均衡方法,为所有利益相关者建立了一个连贯和道德可接受的责任归因框架,结合案例研究展示了该框架在责任归因过程中的可解释性、连贯性和适应性。
- AI 数据的真实性、同意和来源都存在问题:修复它们需要什么?
基于对基础模型训练数据的大规模分析和现有解决方案,我们确定了促进负责任的基础模型开发实践所需的缺失基础设施,并概述了政策制定者、开发者和数据创造者如何通过采用通用数据溯源标准来促进负责任的基础模型开发。
- 人工智能本体论:基于 LLM 辅助构建的人工智能概念层次结构
人工智能本体论(AIO)是一个人工智能(AI)概念、方法论及其相互关系的系统化体系。通过手动整理和大语言模型(LLMs)的辅助开发,AIO 旨在通过提供一个全面框架,涵盖技术和伦理两个方面的人工智能技术,来应对人工智能领域迅速发展的局面。
- 贪婪骆驼:金融价值对齐大型语言模型在道德推理中的性能
研究调查了将大型语言模型(LLMs)与金融优化对齐的道德影响,以 GreedLlama 为案例研究,该模型经过精调以优先考虑经济上有益的结果。通过将 GreedLlama 在道德推理任务中的表现与基准的 Llama2 模型进行比较,研究结果 - 朝着基于价值的行动及后果伦理的形式化
代理人基于 STRIPS 形式化提出行动框架,并利用基于价值的形式推理 (VFR) 对行动进行表达,从而提供一种计算框架来实现一种满足取舍、多元化、以行动为基础和偏好的后果伦理学。
- 大型语言模型中的受保护群体偏见与刻板印象
在伦理和公平的领域中,现代大型语言模型 (Large Language Models,LLMs) 在破解很多最先进的基准测试中表现出色,该研究主要探讨 LLMs 在受保护群体偏见方面的行为,发现 LLMs 存在对性别、性取向和西方文化的偏见 - 然后锤子断裂:从女性主义科学哲学对机器伦理的思考
机器视觉技术是具有具体形体视觉和情境知觉承诺的材料实例,通过从计算机视觉研究、现象学和女性主义认识论的范式进行借鉴,本文主张将哲学关注的焦点从批评伦理缺陷的视觉技术转向将其作为复杂且在方法上和认识论上重要的对象。
- 生成式人工智能伦理的映射:一项全面的范围审查
通过分析 378 个伦理问题的 19 个主题领域,本研究综述了生成人工智能伦理问题的分类和排名,主要关注大型语言模型和图像生成模型,为学者、从业人员和政策制定者提供了关于公平性、安全性、有害内容、幻觉、隐私、交互风险、安全性、社会影响等伦理 - 我思故我在:大型语言模型中的意识
大型语言模型是否具有类似于人类的任何形式的知觉?本文介绍了将知觉概念引入到大型语言模型中,认为知觉是增强大型语言模型与人类互动并确保其道德回应的重要方面。我们定义大型语言模型的知觉为其作为 AI 模型感知和理解自己,以及展现社交智能的能力。 - 加强人工智能中的道德界限:提升大型语言模型安全的高级策略
通过引入多方面的方法,包括过滤敏感词汇、检测角色扮演、实施自定义规则引擎和扩展到各种大型语言模型衍生物,我们解决了大型语言模型在道德、安全和隐私方面的挑战,并且保持了高性能。这项研究为平衡问答系统的效率与用户隐私和道德标准提供了一个框架,确 - 使用 s (LAW) 进行带有行动裁量的自动法律推理
自动法律推理在智能合约和自动决策中的应用日益受到关注,然而伦理和法律问题使得自动推理器在人能理解的术语中进行理由指明变得必要。本文提出使用 s (CASP) 来建模不确定性和其他模糊概念,并实现了一个框架来模拟、推理和证实适用法规,并通过翻 - 评估与语言机器人互动的标准:以尊重为视角
LLM 技术在社交互动中的伦理行为与尊重个体的关系和情境因素相关,研究提供了有关 LLM 技术作为社会行为者的行为规范和尊重人的实际建议。
- 高等教育中的生成人工智能:机构政策和指南分析的证据
通过研究 116 所美国高研活跃度大学产生的文件,全面了解高校为机构相关利益相关者提供的关于生成人工智能的建议与指导。基于我们的研究发现,大多数高校鼓励使用生成人工智能,并提供了详细指导,尤其是在课堂中的使用。然而,要注意的是,该研究建议教 - 国内会话生成 AI 驱动的多机器人系统中的商业和伦理关注
商业和技术通过逻辑和设计紧密相连,与社会变革同样敏感,可能受到丑闻的摧毁。合作的多机器人系统(MRSs)正在兴起,允许不同类型和品牌的机器人在各种情境中共同工作。生成式人工智能在最近的人工智能(AI)讨论中一直是一个主要议题,因为它通过使用 - 实时决策的长期公平性:一种受限在线优化方法
通过引入一个名为 LoTFair 的在线算法,本研究提出了一个框架,用于在具有时间变化公平性约束的动态决策系统中确保长期公平性。研究证明,LoTFair 可以在保持长期性能的同时,使整体公平性违规变得微不足道。