- 学习社会福利函数
通过观察决策者过去的决策,能否理解或模拟他们的决策理念?我们将这个问题形式化为学习社会福利函数的问题,属于广为研究的幂均值函数家族。我们专注于两个学习任务:第一个任务的输入是群体中个体采取行动(决策或政策)的效用向量以及由决策者判断的与之关 - 通向多功能图学习方法:基于大型语言模型的视角
本文提出了一种使用大型语言模型设计多功能图学习方法的新概念原型,重点关注了 “在哪里” 和 “如何” 的角度,总结了四个关键的图学习过程,并探索了大型语言模型在这些过程中的应用场景,最后指出了更好利用大型语言模型的发展方向。
- 超越期望:基于随机优势学习的实用方法
使用随机优势建立学习的通用框架,包括了对不确定性决策的风险厌恶偏好,并在各种应用中展示了与标准风险中性策略性能相当且在风险方面取得更好的平衡的结果。
- 量子模拟随机过程中的准确性与内存优势
在研究中,我们探讨了经典和量子模拟器之间的直接映射,以及量子模型在准确性和存储需求之间的权衡,证明了量子模型可以以更小内存达到相同准确性,或者以相同内存实现更好的准确性,并讨论了该结果对学习任务的影响。
- 从图表到图谱:将隐藏空间合并为一体
通过在语义相关的数据集和任务上训练的模型,我们研究了聚合这些潜在空间以创建包含组合信息的统一空间。我们引入了相对潜在空间聚合(Relative Latent Space Aggregation)作为一个两步方法,首先使用相对表示使空间可比较 - 融合网络格罗莫夫-华松斯坦距离来利用图中的边缘特征
对于机器学习中的许多应用而言,图的成对比较是关键,涉及到聚类、基于核的分类 / 回归和最近监督图预测等。图之间的距离通常依赖于这些结构化对象的有效表示,例如子结构的集合或其他图嵌入。本研究引入了一种用于比较具有节点和边特征的图的 Gromo - IJCAI大规模经验风险最小化的加速双随机梯度算法
本研究提出了一种双重随机算法,使用新的加速多动量技术来解决学习任务中的大规模经验风险最小化问题,各迭代只访问一小批样本和同时更新一小块变量坐标,从而在同时涉及海量样本大小和超高维度时显著减少了内存引用量,实证研究也说明了该方法在实践中的高效 - WSDM解释作为推荐的防御
本研究旨在通过加强推荐和对应解释之间的情感对齐,使解释的学习与推荐的学习更加紧密地连接。实验结果表明,该方案在推荐和解释任务方面均优于基线,特别是在生成解释的质量方面表现出色。
- 贝叶斯 / 信息论偏差学习模型
本文从贝叶斯角度探讨了在相关任务环境下学习适当的偏差问题,并展示了环境的概念是自然地模拟了任务的目标先验分布。本文论证了对于许多常见的机器学习问题,虽然我们不知道问题的真正(客观)先验分布,但我们可以对真正的先验分布可能属于的一组可能的先验 - 元规则的逻辑简化
本文研究了归纳逻辑程序(ILP)的元规则,探讨了将元规则的片段逻辑约简到最小有限子集的可行性以及利用 SLD 解析技术来进行约简的新方法,并在三个不同领域的实验中发现,基于 SLD 约简的元规则相较于 Subsumption 和 Entai - 基于模块化架构的情感标记与部分标注
本文提出了一种基于模块化学习方法的情感分析任务序列预测方法,通过分解不同子任务,共享信息,可以限制学习过程和减轻一些监督工作。
- 学习任务、结构和距离的信息复杂度
介绍了在学习任务空间中引入非对称距离以及计算该距离的复杂性的框架方法,这些是迁移学习实践的基础,并且包括深度学习中优化方案的影响,这在大规模模型和真实世界数据集中是关键的。
- 元学习:一次综述
元学习是通过系统观察不同的机器学习方法在各种学习任务上的表现,然后从这种经验或元数据中学习,以比以前快得多地学习新任务的科学。本章提供了该领域不断发展、令人着迷的最新概述,不仅可显著加速和改善机器学习流水线或神经结构的设计,还可以用数据驱动 - NIPS训练神经网络的统一框架
我们提出了一个统一的优化框架,用于训练不同类型的深度神经网络,并在任意损失、激活和正则化函数上建立其收敛性。该框架推广了众所周知的一阶和二阶训练方法,并允许我们展示这些方法在各种深度神经网络架构和学习任务中的收敛性为我们的方法的一种特殊情况 - 利用真实世界机器人设置强化学习任务
本篇论文研究了基于实际机器人的强化学习,提出了一种学习任务并分析了实验设置对学习性能、可重复性和公平比较的影响,并为未来的实验者提供了一些缓解措施。
- 理解概念漂移
本文探讨了概念漂移对机器学习实际应用的影响以及应对概念漂移的方法,提出了定量分析方法和漂移分析工具,并通过三个实际学习任务的应用验证了它们的有效性。
- 归纳偏置学习模型
本文研究了自动学习偏见的模型,该模型假设学习者嵌套在相关学习任务的环境中,并在此环境中搜索包含良好解决方案的假设空间,进而获得更好的推广效果。