- 无需种植树木的语法学习:理解变换器何时以及何种方式实现分层普遍化
透过对自然语言数据训练的 Transformer 模型的研究和实验证明,具备语言建模目标的 Transformer 模型更容易学习和推广层次结构,并在处理无法预见的句法结构的句子时表现优异。
- 自动编码贝叶斯逆博弈
基于贝叶斯观点和变分自编码器,提出一种解决交互式运动规划中的逆游戏问题的方法,通过构建后验分布来量化未知参数的不确定性,并且在处理连续、多模态分布时具有高效性。在模拟驾驶场景中的广泛评估中表明,该方法成功学习先验和后验目标分布,相比 MLE - 训练数据归因的贝叶斯视角
本文研究了训练数据归因技术,并提出了基于贝叶斯视角的训练数据归因方法;作者观察到单个训练样本的影响往往被模型初始化和 SGD 批量组成等噪音所掩盖,只有在某些特殊情况下才能可靠地使用训练数据归因来解释模型预测结果。
- 拉普拉斯 - 近似神经加性模型:结合贝叶斯推理提高可解释性
本文从贝叶斯角度探讨神经相加模型,并开发了实用的拉普拉斯近似方法。研究结果表明,使用该方法得到的神经相加模型可以提高表格回归和分类数据集以及现实世界医学任务的性能和解释性。
- EMNLP斥力注意力:将多头注意力重新思考为贝叶斯推断
本文提出一种基于贝叶斯视角和粒子优化采样技术的非参数方法,通过显式提高多头注意力中的排斥力来增强表达能力,改善不同注意头的重复提取特征的问题,并在各种关注模型和应用程序上进行广泛实验,证明所提出的排斥式注意力可以提高学习到的特征多样性,从而 - AAAI度量学习的变分度量缩放
本文从贝叶斯视角重新构建度量学习,在提出随机变分方法学习单个全局缩放参数的基础上,进一步生成任务依赖的尺度向量,实现纬度缩放以更好地适应给定的数据分布,为已有的度量学习算法提供可插拔的端到端方式并对 mini-ImageNet 数据集的表现 - 贝叶斯 / 信息论偏差学习模型
本文从贝叶斯角度探讨了在相关任务环境下学习适当的偏差问题,并展示了环境的概念是自然地模拟了任务的目标先验分布。本文论证了对于许多常见的机器学习问题,虽然我们不知道问题的真正(客观)先验分布,但我们可以对真正的先验分布可能属于的一组可能的先验 - AAAI后验引导的神经网络结构搜索
本研究从贝叶斯角度出发,提出了一种后验引导的神经结构搜索方法(PGNAS),通过估计网络结构和权重的联合后验分布,减少数据采样与超参数调整,并在图像分类任务上进行验证,证明了 PGNAS 较其它方法在搜索精度与速度方面具有良好的平衡。
- ICML最大熵正则化的多目标强化学习
通过加权熵的方法构建的一个新的多目标强化学习优化目标,同时配合最大熵法优化,通过比较 OpenAI Gym 的多目标机器人任务与其他基线实验,证实了该方法在性能和样本效率方面具有显著的改进。
- ICML贝叶斯主成分分析的旋转不变 Householder 参数化
文章从贝叶斯角度考虑了概率主成分分析和相关因子模型。提出了一种基于 Householder 变换的参数化方法,解决了模型识别性问题,并使用随机矩阵理论得到了使模型不变的参数分布,从而避免了计算参数转换的 Jacobian 行列式的需要。在 - 连续学习的统一贝叶斯视角
这篇论文介绍了一种新的 Bayesian 衍生连续学习损失函数,该函数不仅仅依赖于早期任务的后验分布,而是通过改变似然项自适应地调整模型,并将先验和似然项结合在一个框架下。
- ICML具有分层功率先验的数据流贝叶斯模型
本文提出了一种贝叶斯方法来处理数据流中连续模型更新和适应底层数据生成分布的漂移问题,使用非共轭分层先验来显式地建模模型参数的时间变化,并导出了一种新的变分推断方案,验证实验表明这种方法在三个潜变量模型的三个真实数据集上具有良好的效果。
- 深度学习:贝叶斯视角
本文介绍了一种基于贝叶斯概率论的深度学习方法,并应用于 Airbnb 的国际订房预测,结果表明深度学习对于高维数据预测有较好的表现。
- AAAI贝叶斯公平性
本文从贝叶斯公平的角度探讨了在决策中如何解决模型不确定性带来的不公平问题,并介绍了将参数不确定性纳入机器学习公平性的新概念。结合 Kleinberg 等人提出的公平定义,研究表明贝叶斯公平能产生在高度不确定性下性能好的公平决策规则。
- 理解贝叶斯模型的预测信息准则
本文从贝叶斯角度回顾了 Akaike、偏差和 Watanabe-Akaike 信息准则,比较这些方法在三个简单的例子中的应用,以及在预测背景下估计预期的样本外预测误差。