- 挑战算法决策中的人机互动
我们从技术和哲学的角度讨论人类在算法决策(ADM)中的作用,具体描述了涉及的不同期望、价值观和限制所引发的紧张关系,以及介入其中的人类所面临的挑战和影响。
- 具有持续改进的智能体下的算法决策
该研究探讨了在人类战略行为下的算法决策问题,其中决策者通过算法为人类代理制定决策,而后者在了解算法信息的情况下可以通过战略性努力逐渐改善以得到有利的决策。通过构建动态模型,本文分析了持久改进的特性,并基于此构建了 Stackelberg 博 - 非线性福利感知战略学习
本文研究在存在战略个体行为的情况下的算法决策,其中使用机器学习模型作出对人类个体的决策,而后者可以战略性地调整自己的行为以改进其未来的数据。研究重点在于非线性设置,其中个体只能通过决策策略的本地信息来响应决策策略。同时考虑最大化决策者福利( - 非法代理歧视:挑战内在歧视算法的框架
通过分析直接歧视的法律条件和技术方法,本文探讨了算法决策中内在直接歧视的识别和应用。
- 中性谬误:算法公平干预何时 (不) 是积极行动
算法公平性干预常被解释为防止歧视而非积极行动措施,调研结果提出在算法决策和公平干预中,应该从不造成伤害的消极义务转向积极‘不造成伤害’的责任。
- 演化多目标优化在数据流中用于公平感知的自适应内存分类器
本文引入一种新颖的方法,即面向公平性自适应记忆分类器的进化多目标优化,旨在增强机器学习算法在数据流分类中的公平性。该方法通过将自适应记忆 K 最近邻算法的优势与进化多目标优化相结合,有效地处理流数据中的概念漂移,并同时最大化准确性和最小化歧 - 这不是一个数据问题”:算法与权力在加拿大公立高等教育中的作用
对加拿大安大略省一所公立学院的数据和算法使用进行深入的民族志案例研究,发现算法决策的日益依赖导致了学生监控的增加、现有不公平现象的加剧以及教师 - 学生关系的自动化,并且识别到算法决策带来的增加机构权力的循环,由财务可持续性推动。
- 有意义的信息:探究受到算法决策影响的人的信息需求
为了解决人工智能系统解释信息与受影响利益相关者信息需求之间的差距,本研究通过两个算法决策场景中受访者的采访研究,提出了 “XAI 初学者问题库”,总结了信息需求的类别和挑战,并影响了受访者对系统风险和好处的感知.
- 设计动态系统中的长期群体公平策略
在这篇论文中,我们提出了一个新的框架,用于在动态系统中实现长期群体公平性,即使在政策设计过程中已经考虑了公平性。我们通过使用时间齐次马尔可夫链对系统动态进行建模,并利用马尔可夫链收敛定理优化政策,确保独特的收敛性。我们给出了一些系统的不同目 - 贝叶斯安全策略学习与机会约束优化:对越南战争期间军事安全评估的应用
在研究中,我们调查了是否有可能在越南战争期间,通过使用 1969 年末引入之后立即测量到的结果来改进当时使用的安全评估算法。我们还提出了一种贝叶斯策略学习框架以及平均条件风险(ACRisk)来解决与高风险算法决策制定相关的挑战。研究结果显示 - 战略性苹果品鉴
本文探讨了在高风险领域中的算法决策,其中涉及到对代理的决策,在对其进行策略性修改的激励下,研究了在线学习问题,使其达到亚线性策略后悔,并提出了实用的解决方案。
- 应用跨学科框架理解算法决策
本文认为,采用学习科学已有的实践经验,有助于为算法决策系统提供更好的解释。本文简要介绍了解释 ADM 系统的重要性,概述了改进解释的其他学科方法,并展示了我们采用 “六个理解层面” 框架的定性任务研究的结果。最后,我们提出了问题,引导未来的 - 数据质量对图像分类公平性的影响
本研究探讨了在监督式分类的情况下,训练数据的质量与通过这些数据训练的模型的整体公平性之间的关系,并测量了多个图像分类数据集上多个算法的关键公平度量,同时描绘和添加数据中的噪声以及对训练集数据进行标记的不准确性与标记噪声之间的关系。
- 因果解释的分歧:透明度如何具有欺骗性
本文针对可解释人工智能中的对策解释方法(Counterfactual explanations)中存在的异议问题(the disagreement problem)进行了大规模实证研究,发现不同算法生成的解释之间存在高度异议,从而呼吁更多关 - 对人类弱点算法利用的反对
本文旨在引起对机器学习模型意外建模弱点的关注,并提出了一些方法来检测潜在的弱点建模,以及确定模型是否对弱势群体进行了不同的处理。作者建议我们考虑立法和人工智能伦理学,以防止算法决策基于潜在的弱点状态表示被认为是操纵和对弱势个体的状况产生恶化 - 可解释性与问责制决策算法的冲突
本文旨在探讨可解释人工智能是否能帮助解决自主 AI 系统所提出的责任问题,并得出结论,提供一系列建议如何处理算法决策的社会技术过程,并提出采用严格的法规来防止设计者逃避责任。
- 公众参与:在有争议的公共政策领域促进算法决策的审议
本文提出了一种 “公众参与” 方法框架,旨在更好地参与算法决策,共同决策,并构建群众。结合通讯文献的见解,探讨其在涉及公共政策领域的 AI 设计中的特点对参与者的重要性,如再犯率预测,为支持此工作的人机交互社区描绘了一部分研究议程。
- 为何需要有偏倚的人工智能 —— 如何通过引入认知和伦理机器偏差来增强人工智能系统
本文阐述了人类认知偏差在人工智能领域中的重要性,并提出了在学习算法中结构上实施认知偏差以及为选择具有道德价值的社会或行为特征的偏向训练刺激应用过滤机制,结合七个具体的偏见实现情景案例,将来自认知科学和伦理学的启示应用于人工智能领域,是对重新 - 不确定性下的排名公平性
认为不公平主要原因是不确定性,基于观察特征定义不完整,提出明确不确定性的近似公平,计算排名的最佳折衷,实验证明推荐系统在 KDD2020 实现了该方法。
- IJCAI使用赌博反馈技术辅助人工智能合作
本文提出和开发了一个针对带赌徒反馈的人机协作问题的解决方案,旨在利用人机互补性最大化决策收益,在多个人类决策者的环境中展开并表现出效用,并呈现出当机器和人类各自单独做出决策时,我们的方法胜过两者的能力,以及如何在多个人类决策者的情况下实现个