通过重写预测规则来编辑分类器
机器学习模型需要不断更新或校正,以确保预测准确性始终保持高水平。本研究提出了一种校正规则挖掘算法,通过组合频繁项集挖掘和独特的剪枝技术,获取描述不准确子集群和纠正方法的综合规则列表,并从中收集数据不足的信息、直接纠正模型输出和分析概念漂移。
Oct, 2023
本研究提出了一种新的稳健性估计器,以避免在透明决策规则下个体的行为可能造成的操纵行为对决策结果的影响并在肯尼亚的一项大型实验中表明,在策略鲁棒方法估计的决策规则的指导下,其表现优于基于标准监督学习方法的规则。
Apr, 2020
通过评分各个类别并选择得分最高的类别进行测试样本的分类,以此来分析分类器的行为并评估其可靠性。本文介绍了一种交互式可视化工具 ——Classilist,可方便地针对每个类别分析这些预测分数,将这些分数与分类正确性及底层样本和其特征相关联,展示不同分类器的不同行为。同时,Classilist 可通过该 https URL 在线使用,提供源代码、视频教程以及 R、RapidMiner 和 KNIME 的插件。
Nov, 2017
在高风险应用(如招聘和司法)中,公平对于人工智能系统至关重要。本文提出了一种更灵活的公平范式,即推断时间规则擦除器(Eraser),它考虑了无法访问模型权重的情况,从有偏见规则的移除角度解决公平问题。通过贝叶斯分析验证了修改模型输出以擦除有偏见规则的可行性,并通过推断时间规则擦除器从模型的逻辑输出中减去与不公平规则(即对有偏见特征的模型响应)相关的对数值来删除有偏见规则。此外,本文还提出了具体的规则擦除器实现,包括两个阶段:(1)在无法访问权重的模型上执行有限查询,以提取其有偏见规则并创建附加的修正模型;(2)在推断时间,根据规则擦除器中概述的移除策略,从原始模型的输出中排除已提取到修正模型中的有偏见规则。详尽的实验评估表明,所提出的规则擦除器在解决公平问题方面具有有效性和优越性能。
Apr, 2024
该研究旨在探讨无模型归属的机器学习分类器,通过提出一个框架来复制任何分类器的功能,同时引入一套度量标准来评估实践中生成的副本,以验证该框架的可用性。研究结果表明,副本可以用于增强现有解决方案并添加新功能和特性。
Mar, 2019