- 一种更实用的机器取消学习方法
机器学习中的模型撤销能够有效解决数据隐私问题,本研究通过实证评估表明首次梯度上升法在机器学习中的撤销过程更为有效,突出了其在提升数据隐私和符合法规(如 GDPR 和 CCPA)方面的潜力。
- 控制中的遗忘:对大型语言模型遗忘的现实应用评估
我们提出了衡量实际效能的一组度量标准,并提出了几种控制方法以规范过多的遗忘。经过在已建立的基准测试上的实验分析,我们得出结论,基于梯度上升的方法在实践中并不完美,强烈的遗忘会以牺牲模型实用性的代价为代价。我们得出结论,朝着实际和有效的大型语 - 通过机器遗忘实现更安全的大型语言模型
通过选择性知识否定消除(SKU)框架,我们可以有效地识别和去除大语言模型中的有害知识,同时保持模型对正常提示的有效性。
- ICCV基于得分的点云去噪 (学习梯度场进行点云去噪)
通过神经网络估计噪点云分布得分,在梯度上升迭代中更新每个点的位置以最大程度提高每个点的对数似然,从而实现去噪。经实验证明,在多种噪声模型下,该模型优于现有最先进方法,并显示出在点云上采样等其他任务中应用的潜力。
- 政策评估网络
本文提出了一种基于价值函数、梯度上升和指纹技术的增强学习方法,通过估计给定一组状态下多种策略的价值,实现了在策略空间直接进行梯度上升从而产生优秀的策略。实验结果表明,该方法的理论和实际效果均优于传统方法。
- 赌博问题中的积极探索梯度上升
基于梯度上升的新算法解决在固定置信度设置下的主动探索赌博机问题,采用在线惰性镜像上升的新采样规则,证明算法渐近最优和计算上高效。
- MM利用最大矩阵范数耦合的概率聚类
采用局部信息论方法显式地学习离散随机变量的概率聚类,并且通过渐近升级和交替升级算法来解决优化问题。 通过与现有技术的竞争和实验验证,表明该方法值得进一步研究。
- 神经网络的黎曼测度 II:循环网络和学习符号数据序列
该研究使用黎曼度量上的梯度上升法作为 RNN 的训练程序,实现了对文本的结构的有效捕捉。
- 基于梯度的强化学习的最优奖励基准线
研究了基于策略梯度的强化学习算法中关于梯度估计差异的问题,并提出将一个奖励基线纳入到学习系统中来降低差异,进而提高算法性能的方法。