- 评估 AI 群体公平性:模糊逻辑视角
人工智能系统通常通过评估和缓解群体歧视措施来解决公平性问题,但什么构成群体公平性取决于问谁和社会背景,而定义通常会放松以接受对统计限制的小偏差。
- 强化学习中的公平性调查
在本文中,我们调研了相关文献,提供了公平强化学习领域最新的发展概况。我们首先回顾了公平在强化学习中可能出现的情况,然后讨论了到目前为止提出的各种公平定义。接着,我们突出了研究人员在单智能体和多智能体强化学习系统中实现公平的方法论,并展示了公 - 基于机制的缓解有害心理生成 AI 的方法
最近的生成型 AI 系统展示了更先进的说服能力,并且越来越多地渗透到可以影响决策的领域。生成型 AI 带来了新的说服风险概况,因为它提供了相互交流和长时间互动的机会。这引起了人们对 AI 说服的伤害的忧虑,以及如何减轻这些伤害的需求,凸显出 - COLINGLexDrafter: 用检索增强生成技术为立法文书进行术语起草
通过提供现有定义和基于文档上下文定义新术语的框架,LexDrafter 框架在起草立法文件时支持协调一致的法律定义,避免歧义。
- 通用人工智能系统(GPAIS):特性、定义、分类、开放挑战和影响
通用人工智能系统(GPAIS)的定义、分类和现状,以及其对社会的挑战和前景进行讨论和总结。
- 智能空间的定义和探索
这篇研究论文提出了一种智能的宽泛概念,将其归纳为三个层级的嵌套层次结构和围绕其及其近似值构建的更广泛的空间,并在其中确定了对应于自然智能(尤其是人类智能)和人工智能(AI)以及类似于人类智能的交叉概念的区域,并在早期探索了四个更先进、更有争 - ACL仇恨言论标准:针对任务的模块化仇恨言论定义方法
本文提出了用于制定更精确的定义和标注指南的仇恨言论标准,并提供了适用于特定场景的英语数据集的属性概述。
- 公平性指标领域细微差别的澄清
本文探讨了机器学习和自动决策中处理公平性的问题,并对已提出的关于公平性的不同定义进行了分析和梳理。
- 面向聊天机器人人工评估的标准准则:一项调研
对涉及 Chatbots 的 105 篇人机评估论文进行了全面调查,提出了五个标准评估指标及其精确定义,以解决由多样化评价标准导致的可靠性和可复制性问题。
- MM多模式是什么?
本论文讲述了多模态机器学习领域的发展,提出了当前使用的多模式定义过时,不适用于机器学习时代,并提出一种基于任务相对定义的新的多模态定义,重点关注与给定机器学习任务相关的表示和信息。通过我们的新的多模态定义,旨在为多模态研究提供缺失的基础,这 - 面向语言学习者的跨语言定义生成
本文提出一种基于预训练语言模型的简单有效的方法,用于学习英文单词在各种语言中的定义,并在新构建的数据集上进行了实验和手动分析,结果表明,我们的模型具有良好的跨语言转移能力,可以为汉语单词产生流畅的英文定义,而且生成的定义比参考文献中的定义简 - 利用即时、位置敏感的定义条款和符号来增强科学论文
本文介绍了带有四个创新特点的 ScholarPhi 增强阅读界面,它可以提供来自论文其他部分或其他论文的信息,如技术术语和符号的定义。一项可用性研究表明,该工具有助于各个经验水平研究人员阅读论文,并且研究人员渴望有 ScholarPhi 的 - 公平分类的规约方法
本文介绍了一个系统方法来在二元分类问题中实现公正性,该方法涵盖了许多先前研究的定义,将公平分类问题转化为成本敏感的分类问题序列,并引入两个新的降低方法来获得较优结果。
- 衡量仇恨言论注释的可靠性:以欧洲难民危机为例
通过收集潜在令人厌恶的消息并询问两组互联网用户是否为仇恨言论,是否应禁止以及他们的冒犯程度的判断,证明表达清晰的定义及更详细的指示是应对社交媒体上恶言恶语扩散并标记仇恨言论的必要措施。
- 智能的定义收集
本文是作者多年来收集的大量关于 “智能” 的非正式定义的调查。尽管不可能列出所有智能的定义,但在这里呈现的 70 多个定义是已知最大和最有参考价值的收集。