May, 2023
将贝叶斯先验蒸馏到人工神经网络中,模拟快速语言学习
Modeling rapid language learning by distilling Bayesian priors into artificial neural networks
R. Thomas McCoy, Thomas L. Griffiths
TL;DR将贝叶斯模型的归纳偏差与神经网络的灵活表示相结合,使得从自然语素材中有限学习成为可能。
Abstract
Humans can learn languages from remarkably little experience. Developing
computational models that explain this ability has been a major challenge in
cognitive science. bayesian models that build in strong
发现论文,激发创造
将符号先验知识融入神经网络中的概念学习
通过使用元学习方法从符号贝叶斯模型的先验分布生成一组任务集,我们能够将快速概念学习所需的归纳偏倚转移到神经网络中,创造出具有对短逻辑公式表达的概念存在偏倚的神经网络,这些结果与人类表现高度一致。
Feb, 2024
语言的深度学习易度是由什么决定的?
通过在人工语言学习研究中复制并测试深度神经网络学习新语言的记忆和推广能力,我们在神经网络与人类之间发现了惊人的相似性,并发现结构化语言输入在提高神经网络系统化概括和记忆错误方面的效果与自然语言存在高度相关性。
Feb, 2023
基于贝叶斯推理的自然语言人类概念学习建模
本研究使用大型自然语言模型作为提议分布,对自然语言的陈述进行贝叶斯推理,以模拟人类抽象符号概念的学习。通过拟合先验人类数据,评估生成和逻辑概念的学习效果。
Jun, 2023
深度智能体新兴通信的词序偏见
本研究旨在发现序列处理神经网络对于 “自然” 词序约束的偏见。结果表明,神经网络倾向于避免长距离依赖,但并没有明显的偏好于高效的,非冗余的信息编码。因此我们建议在神经网络中引入 “努力程度” 的概念,以使其语言行为更像人类。
May, 2019