学习噪声趋化中空间和时间信息的最优集成
通过引入时间记忆,我们利用一小组可解释的嗅觉状态开发了一种强化学习算法,该算法通过现实的湍流气味信号进行训练,证明在逼真的气味中可以学习导航。最佳策略是让代理学习其恢复策略,并表明它在很大程度上是沿横风漂移,类似于飞行昆虫的行为。
Apr, 2024
提出一种训练算法,将 SNN 作为无限脉冲响应(IIR)滤波器的网络,以学习 SNN 的时空模式,并构建用于合成和公共数据集的联想记忆和分类器,其准确度优于最先进的方法。
Feb, 2020
研究模仿海胆精子细胞的化感运动模型,利用人工神经网络作为决策代理,通过深度强化学习算法实现微型机器人的智能机动,在有限的环境信息下,发现比人类设计更有效的运动策略,并利用外部扰动促进化感运动。
Aug, 2022
本文提出了一种计算理论,通过使用混合高斯分布模拟场所细胞的活动,并通过连续时间马尔科夫链的转移概率矩阵。通过学习环境与奖励的关联来提高老鼠行为的灵活性,实验结果表明,相较于深度 Q 网络处理的神经启发式强化学习算法,该理论可以显著提高老鼠学习效率和行为灵活性。
Apr, 2022
本文提出了一种机器学习框架来从高精度随机模拟中学习大尺度化学趋化偏微分方程及其闭合问题,使用自适应相关决策根据高维数据选择合适的共同特征来简化该问题并使用机器学习的方式学习宏观大尺度的效应。
May, 2022
本文提出了一种数据驱动、模型无关的技术,用于生成一个易于人理解的摘要,概括一个演变动力系统(如控制代理的学习过程)中的显著对比要点。该技术根据信息论差异度沿时间和空间维度对转换数据进行聚合,并以图形和文本通信方法为辅助,对连续状态空间下的深度强化学习代理的学习历史进行摘要。我们期望我们的方法能够补充现有的代理可解释性技术。
Jan, 2022
为了解决人类移动中的空间和时间因素对决策过程的影响,本研究引入了 “空间 - 时间诱导层次强化学习”(STI-HRL) 框架,以捕捉人类移动决策中空间和时间因素的相互作用。通过两个层次的决策过程,STI-HRL 通过专用的个体代理来解开空间和时间偏好,然后在高级层次集成这些考虑最终做出决策。在利用超图组织历史数据的基础上,我们提出了一个跨通道超图嵌入模块,用于学习表示状态以促进决策过程。我们在两个实际数据集上进行了广泛的实验,在各种性能指标上证实了 STI-HRL 方法在预测用户下次访问方面的优越性。
Dec, 2023
提出一种新的基于神经网络的方法,该方法利用类似人类的注意机制来自主地以像素为单位学习视频流的表示,本文的实验表明,该方法可以在少量监督的情况下进行开放式类增量分类。
Apr, 2022