带有策略性保留数据的分类
机器学习中的好斗现象及其解决方案的研究,通过将分类问题建模为一种游戏的方式,提出了一种近乎最优的、能够抵抗 “好斗” 现象的分类器设计算法,尤其对于一类自然代价函数而言,该算法在计算上也是高效的。
Jun, 2015
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
对比标准分类任务,战略分类涉及代理人在修改其特征以获得有利预测的过程中的策略性行为,重点关注战略分类与标准学习之间的可学习差距,并通过提供几乎紧密的样本复杂性和后悔界限来解释这一问题,同时引入两种自然的不确定性情况,以实现一定程度的放松的完全信息设置。
Feb, 2024
基于最近的质心分类器和语言模型的最后隐藏状态,使用隐藏校准来提供更好的分类准则,并通过实验证明隐藏校准在当前基于令牌的校准方法上具有约 20% 的性能优势,同时提供新的对传统上下文学习的认识。
Jun, 2024
在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024
本文用互信息作为代替条件熵来训练深度神经网络分类器,并且在多个基准数据集上进行了实验证明,相对于现有交叉熵损失函数训练的模型,提出的互信息模型 (MILCs) 性能更好,总体测试准确率提升超过 10%。
Oct, 2022
在一个在线的战略分类问题中,每个到达的代理可以操纵其真实特征向量以获得正面的预测标签,同时付出依赖于操纵量的成本。学习者在仅能访问操纵后的特征的情况下,试图预测代理的真实标签。之后学习者公布其预测,代理的真实标签被揭示。我们提供两种新算法,旨在在战略代理行为的情况下恢复最大边界分类器。我们证明了各种代理成本结构的收敛性、有限错误和有限操纵保证。我们还提供了针对不同成本的具有错误保证的战略感知器的广义版本。我们对真实数据和人工合成数据进行的数值研究表明,新算法在边界、操纵数量和错误数量方面优于以前的算法。
Mar, 2024
该论文介绍了一个名为 MLIC 的 MaxSAT 框架,用于搜索适用于命题逻辑的可解释分类规则,并演示了它在解决包含数万个示例和数千个特征的大型分类问题方面的有效性和可调节的准确性与可解释性之间的平衡。
Dec, 2018