通过实现一个数学向量化嵌入网络和一个联想记忆模型,本研究探索了支持算术学习的认知机制,以神经生物学可行的认知架构模拟这些技能的习得。通过实验,揭示了联系主义模型的泛化能力、发展计算障碍的神经学原因以及网络架构对认知性能的影响。通过这个跨学科研究,旨在为智能系统中数学认知的神经相关性的继续研究做出贡献。
May, 2024
本文提出一种基于通用 Transformer 的深度学习模型,通过发现高效的算数程序,利用外部的网格状记忆进行多位数的加法计算,并且发掘了人类类似的计算策略,如位值对齐。
Jul, 2022
基于神经网络的端到端可视化学习模型可用非常少的神经元学习数字的加减法运算结果,但乘法等其他运算结果不可学习。
Jun, 2015
该研究提出一种学习简单算法 (如复制、多位数字加法和单位数乘法) 的方法,并使用一组接口和神经网络模型来实现,最终证明 Q-learning 受限于控制器的性能,而非搜索引起的。
Nov, 2015
本文回顾了近年来关于深度学习在数学领域的研究,认为当前即使是最先进的深度学习模型在面对简单的数学和算术任务时也表现出较大局限性。
Mar, 2023
使用强化学习和深度神经网络自动化发现基本转换规则和逐步解决方案,解决线性方程的符号形式的范例问题。
Jan, 2024
提出了一种混合系统,通过学习适当的替换规则并迭代应用这些规则到输入字符串,能够解决需要在符号序列上进行组合和系统推理的算术问题。
Jun, 2023
本文介绍了一个增强现实系统,使人类可以观察到机器人学习的隐藏状态,建立了人类和机器人的共同基础,并讨论了使用我们的系统在 K-12 教育活动中以及开发基于 AR 的人类循环强化学习框架的两个未来方向。
Oct, 2021
通过离散型系统和抽象学习框架的组合,提出了 ABL-Sym 算法,将 Transformer 神经模型与符号数学库相结合,从而在数学推理数据集上显示出显著的准确性提高。
Mar, 2022
提出一种信息论干预的新型框架,以克服向语言模型注入非语言技能时发生的语言技能灾难性遗忘,从而使语言模型在保留语言能力的同时也具备数学推理的能力。
Nov, 2022