归纳偏置学习模型
我们提出了一种计算归纳偏差的新方法,该方法涉及对来自假设空间的随机假设的损失分布进行建模,以估计相对于这些假设需要的归纳偏差,从而提供了一种信息理论解释特定模型架构对特定任务的好处的度量,并为开发需要更大归纳偏差的任务提供了定量指导,从而鼓励更强大的归纳偏差的发展。
Jun, 2024
本文从贝叶斯角度探讨了在相关任务环境下学习适当的偏差问题,并展示了环境的概念是自然地模拟了任务的目标先验分布。本文论证了对于许多常见的机器学习问题,虽然我们不知道问题的真正(客观)先验分布,但我们可以对真正的先验分布可能属于的一组可能的先验分布有一些想法。在这些情况下,本文展示了学习者可以使用贝叶斯推断通过从客观先验中进行采样来学习真实先验分布。当同时学习多个任务时,给出了学习任务所需信息量的下限。这些下限表明,如果学习者很少了解真实先验分布,且真实先验分布的维数很小,则采样多个任务是非常有优势的。
Nov, 2019
本文介绍一种通过学习或有偏移地学习学习者的假设空间的机制,重点解决了在机器学习中如何预先调节学习者假设空间的问题。文章通过采样学习环境的多个类似任务来学习内部表示,证明不同的学习任务可以共享同一个内部表示从而达到更好的泛化效果。文章还展示了使用梯度下降算法来训练神经网络内部表示的有效性。
Nov, 2019
本文提出一个系统研究深度生成模型的偏差和泛化的框架,并通过认知心理学实验方法探讨其生成新属性和组合的特点与人类心理学的相似之处。作者发现这些模式与常用模型和结构一致。
Nov, 2018
本文提出了一个假设,认为人类和动物的智能可以由少数原则解释,这些原则可以帮助我们建立灵活、具有系统化泛化能力的人工智能系统,从而弥补当前机器学习与人类智能之间巨大的差距,并提供 AI 研究和神经科学理论的灵感来源。
Nov, 2020
本研究基于实验方法,探讨了分类学习系统的归纳偏差对样本和规则泛化之间的权衡,并发现标准神经网络模型存在特征偏见和样本驱动等问题,对机器学习研究的系统泛化、公平性和数据增广等产生了影响。
Oct, 2021