Jan, 2023

利用 CNN 的可切换轻量级反对称处理技术超越小样本数据扩充 —— 应用于五子棋加强学习

TL;DR本文提出了一种名为 SLAP 的方法,用于加速机器学习和减少样本量,以替代数据增强方法。SLAP 是一种无需模型依赖的协议 / 函数,用于产生给定不同变换变体的相同输出。实验中,SLAP 提高了卷积神经网络学习的收敛速度 83%,并且只需数据增强的八分之一的样本量。在 Gomoku 的强化学习中,与数据增强基线相比,SLAP 缩小了 8 倍的训练样本数,并且实现了与相同标准评估者相似的胜率。但还不确定它是否能加速强化学习。未来工作中,SLAP 可以帮助不具有对称性或某些变换不变性的领域实现更可解释的学习和迁移学习,作为人工通用智能的一小步。