- 高维数据成对样本假设检验框架
在多维配对样本测试中,我们提出了一种得分函数的生成方法,通过连接每对样本的垂直平分线的决策规则进行定义。然后,我们通过广义化的 Hodges-Lehmann 估计器来估计这些规则的伪中值,从而得到最优得分函数。我们提出了一个两步测试过程的框 - 模型是否理解文档?针对文档级关系抽取进行语言理解模型基准测试
本文研究了文档级别关系抽取中模型对关系预测的决策规则,从注释、实验等多个角度评估了当前 SOTA 模型和人类在关系抽取方面的差异,并提出了平均精度均值(MAP)作为综合评估指标,结果提示 未来关系抽取模型的评估应考虑性能和理解能力两个方面。
- FIRE:一种优化方法用于快速可解释规则提取
该论文提出了 FIRE (快速可解释规则提取) 算法,通过优化框架从树集成模型中提取出易于理解的、稀疏的代表性决策规则集合,同时鼓励规则融合以提高模型可解释性,算法通过特殊优化器可实现 40 倍于现有优化器的性能。实验表明,该方法在构建稀疏 - 从决策规则系统构建决策树和无环决策图
本文考虑了将决策规则转化为决策树的逆转换问题,研究了通过算法描述给定输入的决策树计算路径的可行性,并探讨了构建决策树的复杂度。
- 过程感知信息系统在线决策挖掘与决策漂移分析的端到端方法: 扩展版
本文介绍了一种端到端的方法,用于在线监控和发现决策点和相应的决策规则,同时提供了有效的决策漂移发现和监控,对于理解业务流程中的决策有帮助。
- 具有最坏更新时间保证的全动态近似决策树
给出了一种算法,该算法在任意插入和删除已标记示例的序列上维护了一棵近似的决策树,并具有最坏情况下的运行时间保证。
- ExMo:使用反频率决策规则的可解释人工智能模型
本文提出了一种新的计算决策规则来构建更精确可解释机器学习模型的方法,称为 ExMo,使用了文本特征提取的方法来提取与各类别相关性更高的决策规则,并验证了 ExMo 在欺诈检测等领域的高精度表现,比 BRL 算法精度高 20%。
- 序列决策
本文介绍了一类称为决策规则的对象,可以用于建模决策制定者在接受推荐等场景中对备选方案的连续决策过程。在该类规则中,文中研究了自然子集:终止规则和一致终止规则,并证明了这两个自然子集在等效方面具有重要意义。最后,本文对一些自然的启发式策略进行 - IJCAI决策规则对因果干预的鲁棒性的可证明保证
本文提出了模型的鲁棒性来应对数据偏移,给出了用贝叶斯网络建模,确定参数和因果影响的干预下的最坏情况下性能的算法。实验结果表明该方法在实践网络中得出有用且可解释的范围性结论,从而可以构建出可证明因果性的鲁棒决策制定系统。
- 战略学习中的信息差异
研究决策规则中的非透明度对个体战略学习能力的影响,通过推理学习规则(如申请贷款的朋友和熟人等)来实现对规则的了解,并证明了在许多自然情况下可以同时保证各个子群体的最优改进。
- 防篡改机器学习
本研究提出了一种新的稳健性估计器,以避免在透明决策规则下个体的行为可能造成的操纵行为对决策结果的影响并在肯尼亚的一项大型实验中表明,在策略鲁棒方法估计的决策规则的指导下,其表现优于基于标准监督学习方法的规则。
- ACLE3: 基于蕴含推理的对话机读取的提取和编辑
本文提出了一个新的对话式机器阅读模型,它可以从程序化文本中抽取一组决策规则,同时推论哪些受对话历史所涵盖,哪些需要编辑以创建用户的问题,并在最近发布的 ShARC 对话式机器阅读数据集上达到了最新的最佳性能,释放了我们的模型和实验源代码。
- 透過遞迴分割進行全球模型解釋
本文提出了一种能够全局解释黑匣子机器学习模型的简单而有效的方法,即使用紧凑的二叉树 “解释树” 显式地表示隐含在黑匣子机器学习模型中的最重要的决策规则,而这个树是从贡献矩阵中学习得来的,通过递归地最大化区分空间之间分裂变量的平均贡献差来划分 - NIPS社会选择的统计决策理论框架
本文从统计决策论的视角出发,提出了基于决策规则的社会选择机制,比较了 Bayesian 估计器、Mallows 模型、Condorcet 模型和 Kemeny 规则等各种类型的机制,并探讨了其规范性能、计算复杂度和渐近行为等方面的性质。其中 - 使用正则化的贪心森林学习非线性函数
通过正则化贪心搜索直接学习决策树的方法可以获得比梯度提升和 Adaboost 更高的精度和更小的模型。