- PI-Whisper:面向多样化和不断演化的说话人特征的自适应增量式语音识别框架
通过边缘自动语音识别 (ASR)技术,本研究提出了 PI-Whisper 框架,以增强 ASR 的适应性、实现增量式处理和促进多元化使用者群体的公平性和公正性,并在状态 - of-the-art 的准确性下降为主的情况下,提高 13.7%的 - HYPERmotion: 自主定位操控的混合行为规划学习
提出了一种基于 HYPERmotion 框架的自主学习与行为规划方法,该方法结合了强化学习和全身优化,并且利用复杂的环境信息和大型语言模型的规划和推理功能,可以使机器人实现高自由度的行为适应性。
- 构建自适应模型的模型驱动强化学习代理的部分模型
通过使用部分模型,深度模型驱动的算法可以在局部环境变化中实现适应性的快速构建和维持准确模型,并有效应对这种挑战。
- 基于深度学习的图文水印技术
该论文介绍了一种基于深度学习的新型文本图像水印嵌入和提取方法,通过使用 Transformer 架构进行文本处理和 Vision Transformers 进行图像特征提取,该方法在领域内树立了新的基准。该方法是深度学习在文本图像水印处理中 - SIGIR面向人类中心的主动对话代理
近期关于主动对话代理(PCAs)的研究主要集中在提高系统在用户表达需求之前,预测和计划行动序列以完成任务和实现目标的能力。这篇论文强调了朝着强调人类需求和期望,考虑代理的伦理和社会影响,而不仅仅关注技术能力的以人为中心的 PCAs 的重要性 - 基于 Transformer 的上下文学习:Softmax 注意力适应函数的 Lipschitz 特性
在隐含背景数据的推断过程中,探索了 softmax 注意力机制在回归任务中的作用,发现注意力单元通过学习窗口,可以适应不同的预训练任务,并随着 Lipschitz 性质降低和标签噪声增加而扩大,同时对于低秩线性问题,注意力单元可以在推断之前 - 随机凸优化中的适应性代价
证明了在非光滑随机凸优化中的灵活性的不可能性结果,并引入了 “自适应性的代价”(PoA) 的概念来衡量由于参数的不确定性而导致的次优解的多样化增长。通过理论推导,证明了在初始化距离和梯度范数都不确定的情况下,PoA 至少是对于预期次优值是对 - 高斯过程替代评估的保证覆盖的一致方法
通过将非一致性得分与高斯过程的后验标准差加权,提出了构建自适应交叉一致性预测区间的方法,这些预测区间具有类似于贝叶斯可信区间的适应性水平,并且在没有基础模型假设的情况下具有频率覆盖保证,可以用于评估高斯过程代理模型的质量,并帮助决策者选择最 - 机器学习的自适应优化算法
研究通过自适应性来改进机器学习的优化算法,包括个性化和用户特定模型、可证明的后训练模型自适应、实时学习未知超参数、快速收敛的二阶方法和基于低维更新的快速可扩展的二阶方法,以提供新的见解、引入具有改进收敛性保证的新算法并改进了流行实用算法的分 - 贪婪猪:自适应积分梯度
基于特征选择的统一离散优化框架引入了自适应性,提出了一种自适应的 Greedy PIG 方法以增强特征归因方法的能力。
- 平滑自适应非参数需求学习的动态定价
我们研究了需求函数为非参数化和 H"older 平滑的动态定价问题,重点关注对需求函数的未知 H"older 平滑参数 β 的可适应性。在没有 β 的知识的情况下,我们证明了没有定价策略能够达到这个极小化后悔的最佳性能。受到这个不可能结果的 - 多批次强化学习中的样本效率:对维度相关适应性的需求
探索强化学习中样本效率和适应性之间的关系,通过使用学习框架来研究问题的策略评估和最佳策略识别中,使用 n 个查询的样本有效算法所需的批次数 K 存在最低限制为 Ω(log log d),并且仅有适应性并不能保证样本有效性。
- 一致性和适应性是机器学习回归任务中基于方差的不确定性量化度量验证的互补目标
可靠的机器学习回归任务的不确定性量化 (UQ) 正成为材料科学和化学科学许多研究的焦点。本文章旨在展示一致性和适应性是互补的验证目标,并且良好的一致性并不意味着良好的适应性。提出并且以一个代表性的例子进行了验证方法的调整。
- 动态稀疏训练下的持续学习:探索有效模型更新算法
连续学习是指智能系统在尽可能少的计算开销下,从数据流中顺序获取和保留知识的能力。本研究通过对 Dynamic Sparse Training (DST) 的不同组成部分在连续学习范式下的影响进行了首次实证研究,以填补重要的研究空白并为连续学 - 非参数上下文臂的最重要变化跟踪
研究非参数情境赌博问题,提出经验显著变化的概念来适应不断变化的均值回报函数,证明该更宽容的变化概念可实现最小化的动态遗憾率。
- 政策优化中的乐观和适应性
本研究通过乐观性和适应性对政策优化进行强化,从而将看似无关的算法重新表述为两个交错步骤的重复应用,并设计了一种通过元梯度学习实现的自适应乐观政策梯度算法。
- 稳定性惩罚自适应 Follow-the-regularized-leader:稀疏性,游戏依赖性与双重优势
研究自适应学习率对于解决实际问题的重要性,在此基础上提出了一个新的自适应学习率 ——Stability-Penalty-Adaptive (SPA),可以进一步推广 Follow-the-Regularized-Leader (FTRL) - 核化赌博机中适应误差核正则性
研究了在核化赌博机问题中,在未知正则性的情况下学习算法是否能够自适应于相关核函数的正则性。通过研究转化不变核的正则性自适应性,我们推导出自适应性的下限,证明不可能在具有不同规则性的 RKHS 对中同时实现最优累计遗憾。通过连接在不同功能空间 - 利用必不可少的连接学习如何学习
提出一种名为 Meta-LTH 的新型元学习方法,使用 magnitude pruning 科技进行必要连接的生成,其可有效解决 few-shot learning 问题,该方法通过学习新的低级特征并在元测试阶段重新组合这些特征来更加自适应 - 弹性输入序列的自适应计算
本研究通过使用 “tape token” 实现了神经网络的动态计算,通过对图像识别任务的实验表明了这种方法的有效性。