- 基于人工智能的手机应用程序评论中公平性关注的研究
在本篇研究中,我们通过构建一个包含公平性和非公平性评论的统计样本数据集,开发和评估了一组机器学习和深度学习分类器,用于区分公平性评论和非公平性评论。我们的实验结果表明,我们最佳的分类器能以 94% 的准确率检测出公平性评论。然后,我们将最佳 - 揭示网络:使用跨模态有序网络分析理解 AI 支持下的教室中的有效教学实践
学习分析,基于人工智能系统的教室学习,教师实践,跨模式有序网络分析和学生成绩。
- AAAI社会、法律、道德、同理心和文化规则:编制与推理(扩展版)
AI 系统的实施需要遵守 SLEEC 规则,该研究通过语言分析和逻辑编程框架的应用提供了一个可行的策略。
- 针对政策的仇恨言论测试
本研究通过对 AI 系统与基于规则需求的深度神经网络的行为进行案例研究,对内容审核软件进行测试,发现当前具有高失败率的现有模型,进一步提出了一种自动化方法通过精调 OpenAI 的大型语言模型来增强 HateModerate 数据集。
- 朝向绿色人工智能软件系统:基于架构的方法(GAISSA)
现今,基于人工智能的系统在不同领域取得了杰出的成果,并超越了人类。然而,训练 AI 模型和从中推断出来的过程需要大量的计算资源,在当前能源效率的社会需求中面临重大挑战。为了应对这一挑战,本研究项目论文描述了 GAISSA 项目的主要愿景、目 - 深度学习的拓扑可解释性
本研究介绍了一种利用拓扑和几何数据分析技术来推断临床和非临床文本的两个深度学习分类模型中的突出特征的方法,并通过概率度量距离获取诊断模型决策信息的稳定性来证明这一方法的可行性。
- 基于人工智能系统的设计模式:多重文献综述和模式库
本研究的目标是提供 AI 系统的设计模式的概述 —— 无论是新的还是适应性的 —— 以提高特定的软件质量属性和解决频繁出现的问题,并将它们收集、分类,并使它们易于为研究人员和从业者所获取,从而使结果在这一新兴领域可被用来作为后续研究的基础和 - 关于解释、公平感知和决策之间的关系
研究人员探讨了 AI 系统推荐错误或不公平的情况下,人工干预的必要性,并提供了关于解释、公平感知、依赖和分布公平性之间关系的理论框架,但文献并没有提供确凿证据证明解释在实践中实现了这种补充关系。
- MM一种错误易发人工智能和人类代理之间的委派认知框架
研究人工智能系统和人类在同一环境下应怎样理解和相应对方行为,通过认知模型预测双方行为并通过中介控制实现目标的达成。
- 数据异常:人工智能系统中可疑数据的类别、原因、后果和检测
提出了数据气味的概念,即潜在、不明显的数据质量问题,分为可信度气味、可理解性气味、一致性气味,介绍了检测数据气味的工具支持,并在超过 240 个真实数据集上进行了初步的气味检测。
- 预测敏感性:部署的分类器中反事实公平性的持续审计
该研究提出了一种基于预测敏感性的方案,用于对已部署的分类器进行持续审计,以识别反对事实上的公正性。该方案不需要保护状态信息的预测时间,可以利用保护状态和其他特征之间的相关性,并展示了该方法有效检测反对事实上公正性的违规情况。
- GitHub Copilot 代码贡献的安全性评估
通过对 AI 程序员 GitHub Copilot 生成代码中的高危漏洞相关场景的系统研究,我们发现了 40% 的代码是存在漏洞的,这造成了对代码安全性的重大担忧。
- 信任 AI 与可信机器学习技术之间的关系
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的 - 实现可验证的人工智能
本文从形式方法的角度考虑了 “可验证的人工智能” 这一目标。描述了实现可验证人工智能所面临的五个挑战及相应的五个解决原则。