- 自我监督学习中不可察觉的后门攻击
自我监督学习模型容易受到后门攻击,而现有的有效后门攻击方法常常涉及可察觉的触发机制,如有颜色的补丁,容易被人类检查出来。本文提出了一种对自我监督模型有效而又难以察觉的后门攻击方法,通过优化特定触发机制的设计,使其与自我监督学习中的增广转换有 - 隐式扩散:通过随机采样实现高效优化
我们提出了一种新的算法,用于优化由参数化的随机扩散隐式定义的分布,通过在参数上进行优化,我们可以修改抽样过程的结果分布。我们引入了一个用于这些过程的一阶优化的通用框架,该框架在单个循环中执行优化和抽样步骤。这种方法受到了双层优化和自动隐式微 - 对抗性样本在扩散模型流形中不一致
通过扩散模型检测和分析攻击引入的图像异常,结果表明攻击实例与扩散模型的学习流形不一致。
- 对 ' 分布式 ' 自然语言处理语料库距离度量的表征
给定两个语料库,我们想要计算它们之间的单一距离度量(例如,Mauve、Frechet Inception)。我们描述了一种抽象质量,称为 ' 分布性 ',用来说明这些度量的特点。我们量化了该质量,并以平均 Hausdorff 距离和能量距离 - 概率程序中的整数算术扩展
通过利用整数操作的逻辑结构,我们提出了一种用于离散分布的二进制编码策略,并结合知识编译进行精确的概率推断,从而扩展到更大规模的整数分布。
- 数据集上的主成分分析的两种导出方法
本文提出了一种针对数据集不是点而是分布的主成分分析方法,可以从方差最大化原则和重构误差最小化的角度获得闭合解。
- 广义分布语义和投影分布族
通过分离自由随机组分和确定性部分抽象逻辑编程的核心思想,我们推广了支持概率逻辑编程的分布语义,包括从概率数据库、概率有限模型论和离散抬升贝叶斯网络框架,证明了确定性部分的一个有限的碎片足以表示所有可在广义分布语义中表示的投影分布族,但表明了 - 工程性重新审视
本文研究统计关系表示在不同规模域中的行为,并通过将域的概念从仅大小表示扩展到从数据库中获取的外延数据的函子,为更广泛的应用提供了 projectivity。将关于 projective families 的关键结果转移到了新的设置中,从而证 - 连续学习:特征提取形式化、有效算法和基本障碍
本文探讨了机器学习中的持续学习范式,并提出了一种基于特征提取的持续学习框架,通过特征和分类器在每个环境中的联合训练,设计了一种高效的梯度算法 DPGD,并证明了该算法能够在当前环境下表现良好,同时避免灾难性遗忘,但在特征是非线性的情况下,并 - ICCV基于分布区分的个性化轨迹预测
本文提出了一种 DisDis 方法,通过区分潜在分布来预测个性化的运动模式,旨在更准确地捕捉未来动态的多模态特性。实验结果表明,该方法是有效的。
- 关于 Jensen 差的界限及其对于均值集中分布的含义
该论文给出了关于 Jensen 不等式差距的上下界(即随机变量函数的期望值与随机变量期望值函数之间的差值),上下界仅取决于函数的增长性质和随机变量的特定时刻。该上下界特别适用于分布集中在平均值附近的情况,如 i.i.d. 样本的平均值和统计 - 一种基于最大似然方法的统一分布性能优化估计
利用插值最大似然估计(PML),可以很好地估计支持大小、覆盖区域、熵和接近均匀分布等数据科学中的对称性属性。
- 多臂赌博机中主动学习的上置信界算法
本文主要研究的问题是:如何在样本预算有限的情况下,统一地估计多个分布的平均值。通过采集数量,可以根据它们的方差为已知来设计最优的采样策略,但在更实际的情况下,需要设计自适应采样策略来选择要采样的分布(根据先前观察到的样本)。文章描述了两种策 - 收益最大化的样本复杂性
本文通过研究直接基于分布进行收益最大化拍卖的样本复杂度,探讨了数据量在何种程度下可以保证期望收益最大化接近最优,并且构建了一个解释了拍卖、非常接近最优的收益、参与竞标者出价的估值分布之间相互作用的下界。
- 使用 Wasserstein 距离度量的分布模板估计
该研究针对比较随机变量分布及定义事件样本的平均模式等问题,使用 Wasserstein 空间的测度重心提出一个迭代版本进行平均分布的估计,并且当分布是由居中随机算子扭曲的常见措施时,则测地线能恢复该分布模板。
- 缺失质量问题
我们对有限空间和可数无限空间上的分布的预期缺失质量给出了严格的上下界,并提供了极端分布的基本特征描述。 我们还提供了一种独立感兴趣的完全有界度量空间的扩展。
- 有限支撑测度的逼近
研究在黎曼流形上具有紧支撑概率测度的分布,它可以以有限支撑测度(在任意 p 的 Wasserstein 距离下)逼近的渐近速度。这个问题已经在 “分布量化” 和当 p=1 时的 “位置问题” 下被研究了。当 p=2 时,它与中心化的 Vor