- 反思式策略优化
该论文介绍了一种新的基于策略的扩展方法 —— 反思性策略优化(RPO),它将过去和未来的状态 - 动作信息结合起来以进行策略优化,从而使智能体能够自我审视并在当前状态下修改其动作。理论分析证实了政策绩效的递增和解集空间的收缩,从而加快了收敛 - 魔鬼的辩护:面向 LLM 代理的预期反思
我们介绍了一种新颖的方法,为 LLM 智能体提供自省能力,以增强其在解决复杂任务中的一致性和适应性。我们的方法促使 LLM 智能体将给定的任务分解为可管理的子任务(即制定计划),并持续对其行动的适用性和结果进行自省。通过在 Web 环境中使 - 近似 UMAP 允许高速在线可视化高维数据流
在脑机接口领域,我们引入了一种名为近似 UMAP(aUMAP)的新方法,用于实时推断,其结果显示该方法能够在减少投影速度一个数量级的同时维持与标准 UMAP 相同的训练时间和投影空间。
- 自动驾驶系统中使用学习表示进行二维物体检测的运行时内省
自动驾驶系统中可靠的物体检测、审视和错误检测的应用,通过引入新的检视方案并利用神经网络激活模式,实现在基于深度神经网络的 2D 物体检测中的错误减少。
- 检索解释:基于证据的语言模型预测
通过使用 Shapley 值以识别证据在最终预测中的相对重要性,Retrieve to Explain(R2E)能够根据文件语料库中的证据,优先考虑对研究问题的一组预先定义的可能答案,从而解决了机器学习模型特别是语言模型在解释性上的困难,并 - DynaLay: 深度网络动态层选择的内省方法
深度学习模型 DynaLay 通过自适应地选择最合适的层数来处理每个输入,从而使模型具有独特的内省能力,优化了性能和效率,并同时显著降低计算需求。
- 利用主动推理设计可解释人工智能:透明反思和决策的框架
本文探讨了基于活跃推断和自由能原理开发人类可解释、可理解的人工智能系统的前景,并提出了一个使用活跃推断的可解释 AI 系统架构,其结构设计为可被人类用户解释和审计。
- 基于反思的可解释强化学习在情节和非情节场景中的应用
通过自省和强化学习代理结合来提高机器人任务的可信度和可解释性。实验表明,在情节性和非情节性机器人任务中,自省方法都是可行的,可以生成对机器人行动的解释。
- 自动回复:基于鉴别式回复的对话自省中的无意义检测
该研究表明,对话模型在不需要外部分类器的基础上,通过计算表示为差消息的回复的可能性,可以在内部检测其自己的消息中的语言错误,AutoReply 算法也可以帮助自动搜索具有区分能力的回复。
- 内省式深度度量学习
该论文提出了一种基于内省的深层度量学习框架,用于对图像进行不确定性感知的比较,该框架使用语义嵌入和不确定性嵌入来表示图像的特征以及模糊程度,并使用内省相似性度量来进行图像的相似度比较,取得了在图像检索和分类任务中的最先进性能。
- 内省型智能体:代表行动机构的策略、生理和感知间的相互依存
本文提出了一种基于内省的代理机制,通过考虑代理自身的能力与环境背景相结合来实现任务目标,以增加现有体验智能机制的功能和实时适应性。
- ICML通过内省检测神经网络中的对抗样本和其他分类错误
通过在预训练的神经网络的 logits 上再训练一个简单的 3 层神经网络,我们能够竞争性地检测出分类错误,从而解决现代神经网络无法提供可靠置信值的问题(也就是所谓的敌对样本问题和过度自信问题)的局限性。
- 内省知觉:学习预测视觉系统中的故障
该文提出了一个自我评估的能力 —— 内省,并基于此提出了一个模型,通过输入的感应器数据可可靠地预测给定任务下系统的失败。该模型在室外自然环境下的视觉自主微型飞行器飞行中表现出效果显著。
- 通过迭代内省实现视觉概念识别和定位
该论文提出了一种基于卷积神经网络和 Class Activation Mapping 等方法的、自我检查图像中信息区域、并在迭代分类中关注对分类问题有用的区域的方法,可在多个数据集上实现有竞争力的甚至最先进的结果。