万物一网
本文介绍了一种自动发现并解决问题的新型算法框架 POWERPLAY,该框架借鉴了动物和人类的有趣行为方式,实现了基本创新原则的贪心但实用的应用,无需监督学习,并不断增加问题解决技能的技能库,从而获得更好的创造力。
Dec, 2011
PowerPlay是一种基于SLIM RNN神经网络的问题求解架构,它通过自我发明问题来不断学习新的技能并简化、压缩或加速以前的任务的解决方案,成长为一个不断扩展技能库、自我模块化并不断提出新问题、解决自己发明的问题的系统。
Oct, 2012
提出了一种在神经网络控制下自适应地利用先前学习的网络的知识转移方法,实现了高维序列决策领域的增量学习和知识迁移,在Atari 2600游戏中得到了成功的验证。
Dec, 2015
通过比较基于贝叶斯优化的算法,我们研究了在简单合成函数上训练的循环神经网络优化器的性能,发现这些训练后的优化器在不同的黑盒函数优化、超参数整定和全局优化基准测试中表现优异。
Nov, 2016
提出了一种名为Deep Adaptation Networks的方法,通过在现有神经网络中添加线性组合的新滤波器来实现学习新技能,而不影响已经学习的性能,以及在各种图像分类任务中表现出良好的效果。
May, 2017
本文研究了深度神经网络的层次结构特征,发现递归神经网络与前馈网络在提取特征和处理深层次信息方面表现出类似的表现和性能优越,且递归模型能够模拟前馈模型的行为并使用更少的参数来实现图像分类和迷宫问题的求解。
Feb, 2021
本文讨论了深度神经网络在视觉模式识别方面的强大能力,但在推理任务中仍然表现不足,引入了使用循环神经网络解决问题的算法,并通过前缀和计算,迷宫和棋类游戏等问题进行了实验研究。
Jun, 2021
本文提出了可自我修改的參照矩陣 (Self-referential Weight Matrix, SRWM),使用外部乘积和增量更新规则来对其进行自我修改。该 SRWM 在受控的少样本学习和多任务强化学习中展示了实际应用和竞争性能。
Feb, 2022
该研究提出了一种新的技能发现的架构,通过递增学习的方式获得新技能,以适应不断变化的环境,并且在质量和下游任务解决能力方面显著优于现有方法。
Mar, 2022
我们提出了一种名为“Modularized Adaptive Neural Architecture Search”的方法,该方法利用基本技能及其重新使用来对神经网络进行自主组建,从而实现自动组装的 AI 神经网络以提高性能。
Aug, 2022