- 机器学习模型中的个体公平性验证
本文旨在通过构建验证器来证明一个模型是否符合个体公平。我们针对决策模型与结构化数据的情况进行研究,特别考虑了线性分类器和核多项式 / 径向基函数分类器。实验结果表明,我们提出的算法对公开数据集的评估是可行的。
- ACL通过迭代零空间投影来保护受保护属性
我们提出了一种名为迭代零空间投影 (INLP) 的新方法,它基于线性分类器的训练,通过在空间中进行映射,以消除神经表示中的特定属性,并减少了词嵌入中的偏见,提高了多类分类的公平性。
- 对比估计方法揭示线性模型中主题后验信息
本文探讨了对比学习在文档分类中的应用。与传统方法相比,利用对比学习方法能更好的学习到文档的表征,并通过实验证明线性分类器利用这些表示能提高文档分类的准确性。
- ICML通过随机平滑实现标签翻转攻击的认证强韧性
本文提出了一个新的机器学习算法来防御数据污染攻击,并通过随机平滑技术,构建了具有证明能力的线性分类器,可以高可信地抵御标签混淆攻击。此外,本文所提出的方法不需要对训练和测试数据集的分布作任何假设。
- AAAI属性噪声鲁棒的二分类
研究学习线性分类器时,当特征和标签都是二元时,考虑噪声干扰问题。研究了两种不同的属性噪声模型,并发现当噪声率较低到中等时,平方误差损失是鲁棒的。
- 关于鲁棒性对抗样本和多项式优化的研究
通过优化多项式优化问题的技术,我们设计了具有计算效率和可证明保证的鲁棒性算法,能够抵御测试时的对抗性干扰,特别地,针对线性分类器和二次多项式阈值函数(PTF)分类器,我们给出了其计算鲁棒性的代价的精确刻画,同时,我们还证明了用环境所提供的函 - ICML机器学习模型的认证数据去除
研究数据管理如何删除机器学习模型中的数据,定义了一个可靠的数据删除机制并在实验中验证其可行性。
- ROCKET:使用随机卷积核的极快准确时间序列分类
介绍了一种简单的线性分类器,它利用随机卷积核,相对于现有方法具有极少的计算负担,可用于时序数据分类,并在准确性上达到了最先进的水平。
- 通过全层间隔改进深度网络的样本复杂度和鲁棒分类
该论文提出了一种新的边界概念 -- 全层边界,用于深度学习模型的边界分析,从而获得更紧密的泛化边界,并给出了一种用于提高全层边界的理论指导的训练算法。
- TASS 2019:数据增强和稳健的嵌入用于情感分析的 Atalaya
文章介绍了作者参加 TASS 2019 的经历,用了诸如字符包袋、词包袋、推文嵌入的表示方法。文章也使用了两种数据增强技术,最后得出简单方法的高竞争实验结果。
- Metropolis-adjusted Langevin 算法的非凸采样
本文提出的正则性条件使我们能够在许多统计和机器学习应用中获取更快的边界。其中包括使用弱凸先验分布的贝叶斯逻辑回归和学习 0-1 损失函数的线性分类器的非凸优化问题。本文的主要技术贡献是我们通过能量守恒误差对 MALA 的 Metropoli - 大规模多类别分类的高效原始 - 对偶算法
本文介绍了如何使用随机镜像下降法和非均匀采样方案,来快速训练高维度特征空间、多分类通用的线性分类器,特别是在多类 Hinge 损失下,本文提出了一个迭代次数为 $O (d+n+k)$ 的子线性算法。
- 通过函数转换的对抗风险界
本文提出了一种用于衡量线性和神经网络分类器对对抗干扰的鲁棒性的对抗风险概念,并通过对函数变换的界定来推导出对抗风险的上界,藉此解决了标准学习理论技术无法解决的问题。同时,还探讨了该理论对于多分类和回归的扩展,并提出了两种算法用于优化线性案例 - 可分离数据上的随机梯度下降:固定学习率的精确收敛
本文探讨了采用 SGD 进行机器学习的收敛性问题,特别是在采用线性可分数据及单调函数损失函数的情况下,证明了 SGD 在固定非零学习率的条件下可以收敛至零损失,对于分类问题中的单调函数损失函数(例如对数损失),每次迭代权重向量趋向于 $L_ - 将乘法特征整合入用于词汇语义蕴含的监督式分布式方法中
通过整合乘性特征来提高受监督的分布式方法在词汇暗示方面的性能,我们提供了不同分类器和评估设置的广泛评估,并建议适合的评估设置,消除了先前存在的偏见。
- ICLR利用稀疏表示来对抗对抗攻击
本篇论文研究了针对深度神经网络的对抗攻击问题,表明对于稀疏输入数据表示,我们可以利用线性分类器的稀疏编码来有效减缓攻击,并将其扩展到深度神经网络中,发现使用局部线性模型可以有效降低 MNIST 数据集上的攻击成功率。
- KDD基于子空间的学习中的干扰 Grassmann 核
该研究聚焦于子空间学习问题,提出了三种新的核函数:Disturbance Grassmann(DG)核、与子空间矩阵有关的干扰的投影核和基的奇异值干扰的投影核,以应对现有算法中忽视子空间不稳定性的问题,实验表明所提出的核相比现有基于子空间的 - MM随机梯度 Langevin 动力学的碰撞时间分析
本文研究了随机梯度 Langevin 动力学(SGLD)算法,针对非凸优化问题,注入适当缩放的高斯噪声来更新参数,我们分析了算法达到参数空间任意子集的的命中时间,从理论上得出结论:对于经验风险最小化,如果经验风险在点值上接近于(平滑的)总体 - 使用阈值处理处理类别不平衡问题
该论文研究使用阈值设定来解决类别不平衡的问题,提出了一种函数阈值的概念,可以用于线性分类和非线性分类算法中,并针对制造业领域的异常检测问题进行分析和研究。
- 优化目标的最优黑盒约减
本研究提出了新的降维方法,可将一种机器学习方法应用于不同的光滑强凸度范围,不仅优化效果较好且实用性强,该方法在多个损失函数家族的线性分类器训练中展现出更快的运行速度和成功的实践应用。