Playgol:通过玩乐学习编程
本文提出使用多任务学习自动获取背景知识的方法,同时探讨是否删除背景知识对于归纳逻辑编程学习器的性能有所提升。实验结果表明,在学习过多于 10,000 个任务后,使用 Forgetgol 方法会优于其他方法。
Nov, 2019
利用约束驱动的归纳逻辑编程系统,通过组合一组小的、不可分离的程序来学习递归程序,并且实现谓词发明,在游戏玩法和程序合成等多个领域的实验表明,该方法在预测准确率和学习时间上明显优于现有方法,有时将学习时间从一小时以上缩短到几秒钟。
Jun, 2022
该研究介绍了一种基于归纳逻辑编程的学习模型,通过生成、测试和约束三个阶段,不断迭代优化假设(逻辑程序),提高学习性能,其中 Popper 系统在多个领域的实验中表现突出。
May, 2020
该论文提出了基于自我监督控制和玩耍数据的方法来扩大技能学习,结合自我监督控制和多样性玩耍数据集,实现了对环境中所有可用行为的连续学习,取得了在机器人桌面环境中 18 项视觉操作任务上的显著表现,同时表现出更强的抗干扰能力和重试成功的行为。
Mar, 2019
介绍了一种技术,可以从 General Game Playing 生成规则,建立 Inductive General Game Playing 难以被现有的归纳逻辑规划方法处理,并给出了 IGGP 数据集和实验结果。
Jun, 2019
通过和计算机交互完成任务,以语言游戏的方式,人类可以在不知道什么是语言的情况下学习语言,为建立自适应的自然语言接口打下基础,使用组合性而避免使用同义词有助于任务表现,从零开始快速学习语义解析模型,并进一步加速的学习计算机策略,以适应成功的玩家。
Jun, 2016
机器学习中的自然编程通过结合基于程序的学习和分层规划,通过使用语言提示来指导规划提案的概率分布,从而实现了从不同用户和环境中学习并快速适应和解决更复杂任务的目标分解与复杂任务的解决。
Oct, 2023
本文介绍一种用于程序自动合成的方法,通过结合模式识别和显式推理来解决这些复杂的编程问题,同时使用新颖的中间表示和训练算法,使程序合成系统能够自学,从而在简单的英文描述编程问题数据集上取得了最先进的性能表现。
Feb, 2019
通过发现假设约束来提高学习效率和可扩展性,我们提出了基于约束驱动的规约归纳逻辑编程系统,对多个领域进行了实验,证明其可以显著缩短学习时间并扩展到具有数百万事实的领域。
Feb, 2022
本文介绍了一种自动发现并解决问题的新型算法框架 POWERPLAY,该框架借鉴了动物和人类的有趣行为方式,实现了基本创新原则的贪心但实用的应用,无需监督学习,并不断增加问题解决技能的技能库,从而获得更好的创造力。
Dec, 2011