关键词internal representation
搜索结果 - 9
- 人类和大型语言模型中潜在成分表示的主动运用
人脑与大型语言模型在句子内部表征方面具有相似的层级结构,通过删除单词来推断句子的潜在分层结构,并证明了这种结构在人脑和语言模型中都能出现。
- 神经网络的不变度量
神经网络中的不变性对很多任务来说是有用且必要的,然而大多数神经网络模型的不变性表示尚未被表征。我们提出了用于量化神经网络不变性的测量方法,这些方法在内部表征方面是高效且可解释的,适用于任何神经网络模型。相比先前定义的测量方法,它们对不变性更 - 潜在扩散模型中的场景表示:超越表面统计
本文研究了潜在扩散模型在产生逼真图像时的内在机制,通过使用线性探针发现,LDM 的内部激活编码了简单场景的几何和显著对象 / 背景区别的线性表示,并且这些表示出现在去噪处理的早期阶段,对 LDM 图像合成具有因果作用,并可用于简单的高级编辑 - ICLR应用序列模型探讨在合成任务训练下的紧急世界表达
该研究探讨了语言模型的内部表示和超出表面统计信息的能力,并使用 Othello 棋盘游戏作为示例,发现神经网络对于棋盘状态具有一种非线性内部表示,可以用于解释和控制其输出。
- 学习内部表示(COLT 1995)
本文介绍一种通过学习或有偏移地学习学习者的假设空间的机制,重点解决了在机器学习中如何预先调节学习者假设空间的问题。文章通过采样学习环境的多个类似任务来学习内部表示,证明不同的学习任务可以共享同一个内部表示从而达到更好的泛化效果。文章还展示了 - 细胞自动机作为卷积神经网络
本文探讨了如何使用卷积神经网络及多层感知器等深度学习技术识别复杂动力系统中的规律,着重研究了各类元胞自动机以及其内部规则和神经网络的内部表示方法。
- 人类和深度学习在视觉扭曲下识别性能的研究与比较
在图像质量失真的影响下,深度神经网络的表现远不及人类,但两者的错误率存在着较少的相关性,表明图像的内部表现在网络和人类眼中存在差异。这些与人类视觉表现的比较有助于指导未来更具鲁棒性的深度神经网络的发展。
- 无人驾驶汽车的端到端学习
使用卷积神经网络实现端到端的无人驾驶系统,自动学习所需处理步骤的内部表示,以及如何检测车道等相关功能优化,最终将导致更好的表现和更小的系统
- 自动编码器和深度网络中的噪声分析
自动编码器是无监督学习内部表示的有用框架,本研究将现有的去噪自动编码器扩展到在非线性函数和隐藏单元激活之前注入噪音,提供一种统一的策略来通过设计注入噪声的性质来开发新的内部表示,并表明通过罕见的、去相关、和信息分散的噪声,在深度网络中改善性