超不变性:摊销不变性学习
人工智能代理在现实世界中的部署需要与人类(以及其他异构的 AI 代理)可靠地合作。为了提供成功合作的形式化保证,我们必须对合作伙伴代理的行为做一些合理的假设。这项工作研究了在一个有限重复的、两个玩家的一般化总和矩阵游戏中与一个代理人群合作的问题,通过个体理性学习者的假设和在某个 Pareto 有效均衡策略下高概率实现至少与该策略相同效用,我们证明了这些假设本身不足以保证与目标人群成员的零 - shot 合作。因此,我们考虑了通过先前观察到的人群成员相互作用来学习与这样的人群合作的策略问题,并给出了学习有效合作策略所需样本数量的上限和下限。最重要的是,我们证明了这些界限可以比通过一种 “天真” 的问题简化到模仿学习中产生的界限更强。
Jun, 2024
我们提出了一种用于学习未知的非自治随机动力系统的数值方法,该系统受到时间依赖的激励或控制信号的影响。我们的方法的基本假设是随机系统的控制方程不可用,但是可以获得一些由已知激励信号和相应系统响应组成的输入 / 输出(I/O)数据。当具有足够数量的 I/O 数据时,我们的方法能够学习未知的动力学,并为系统对于不在训练数据中的任意激励信号的随机响应生成准确的预测模型。我们的方法包含两个关键组成部分:(1)对训练 I/O 数据的局部逼近以将学习转化为参数化形式;(2)用于近似分布的生成模型来近似未知随机流图。在详细介绍该方法之后,我们提供了一套全面的数值示例来展示所提出方法的性能,尤其是用于长期系统预测。
Jun, 2024
从弱标记数据中学习姿态估计的方法,通过使用 NeRF 隐式学习物体形状,结合 CNN 使用对比损失学习视图不变特征,从而估计姿态。
Jun, 2024
通过使用循环一致性思想,引入循环对应损失(CCL)实现视角不变的密集描述符的学习,从而达到优于其他自监督方法且接近有监督方法的性能,无论是在关键点跟踪还是机器人抓取下游任务方面。
Jun, 2024
研究数据增强方法在回归问题领域的应用,引入一种新的数据驱动的领域无关数据增强方法(FOMA),通过从训练分布的切平面上采样新的例子来提高神经网络的泛化能力。
Jun, 2024
我们提出了一种新的方法,利用表达式优化和符合预测,从有限样本正确性保证的角度学习出可以在用户定义的置信水平下正确描述未来轨迹的时间逻辑谓词。我们通过对模拟轨迹数据集的实验结果以及消融研究来展示我们方法的性能,并分析了算法的各个组成部分对性能的贡献。
Jun, 2024
该研究提出了一种语言竞争模型,该模型充分考虑了记忆和学习对语言转移动态的影响,通过使用 Abrams-Strogatz 模型作为起点。模型以讲话者比例的阈值来表达记忆和学习的效应,在最简单的形式下,该模型是可解的。除了两种语言中的共识外,该模型还描述了 Abrams-Strogatz 模型中不存在的其他平衡状态:如果两个阈值都足够低,使得两个相反方向上的语言转移过程相互抵消,将出现两种语言的稳定共存;同时,当这两个阈值对于任何语言转移来说都太高时,将出现与初始状态相符的冻结状态。我们通过数值模拟证明了这些结果在阈值函数形状更一般的情况下仍然成立。
Jun, 2024