- 专家水平
本文研究专业知识的本质并提出了专业知识层次和技能层次的抽象描述,并引入了 “专业层次” 这一新层次,应用该模型到认知结构和人类认知增强领域,并用该模型分析了几个著名的智能系统。
- 自主学习者之路
本文提出了一种新的理论方法,通过智能系统实现领域知识获取。我们介绍了一种混合模型,通过一个知识图谱数据库存储和推理最小输入知识,并通过逻辑神经网络学习新信息。我们研究了该系统处理新数据的行为,并展示最终系统能够丰富当前的知识并将其扩展到新领 - 基于项目反应理论的举例解释
本研究使用 IRT 作为一种解释模型和衡量 Explanation-by-Example 方法的可靠性的工具,发现在测试集中,83.8%的错误是通过 IRT 界定该模型不可靠。
- 智能系统认知特征评估及预测能力评估
本文提出了一种智能系统评估通用双轴刻度。该刻度考虑了智能系统在环境背景下随时间发展的特性,强调了预期能力对于其计算能力的调节影响,并讨论了解决问题的正确性和适当性如何与解决能力本身的正确使用联系起来。
- SIERRA: 用于研究自动化和可重复性的模块化框架
SIERRA 是一种基于自主变量运行实验的框架,通过自动化实验生成、执行、及处理结果来加快研究开发并提高结果的可复制性,它采用模块化结构,可轻松定制和扩展,这有助于消除繁重的手工配置,提高研究的复现性。
- 实境游戏学习的自然语言理解:初步评估
研究了一个新的多任务 NLU 结构在小型领域游戏数据集上进行意图识别的表现,发现相比基线方法,Dual Intent and Entity Transformer (DIET) 架构在野外数据上具有较强的鲁棒性。
- 可解释人工智能是否与模型复杂度的竞争有关?
随着模型的体积和复杂性不断增长,解释智能系统的行为将变得越来越具有挑战性。庞大的模型不一定需要对每一个预测进行解释,并且解释可能不再客观或中立。这些模型的功能主义理解可能比我们想象的要少,但是,即使模型和解释都不正确,模型也可以是有用的。解 - CVPRSelfD: 从网络数据中自学习的大规模驾驶策略
介绍了 SelfD,一个利用海量在线图片的可扩展驾驶学习框架,使用半监督训练来从未标记数据中学习后效代理。通过利用伪标记步骤进行数据增强,SelfD 表现出可靠的驾驶性能,无需额外的数据收集或注释工作。
- 智能系统数字孪生中的知识等效性
本文提出了知识等价性维护的概念和通过知识比较和更新的等价性维护方法,重点探讨了智能系统的数字孪生模型,这些系统具有有限的知识感知能力,以及在虚拟空间中复制它们在物理系统中的知识感知能力所需的新颖等价性维护方法。通过量化分析,证明与状态等价性 - CVPR学习通过动态上下文去除来预测未来
本文提出了一种基于人类学习曲线的新颖训练方案,即动态上下文去除(DCR),该方案通过动态调度观察到的未来的可见性来训练预测模型,实现了有效和高效的预测,而在四个广泛使用的基准测试中也达到了最新的技术水平。
- 用于改善基于分类体系的搜索引擎意图估计的语义语料库自动生成
本文介绍了语义扩展检索系统中影响最大的语义关联作用,并提出在准确性和噪音引入之间寻找最佳平衡的方案,最后通过构建自然语言处理系统并利用系统的多种知识资源进行评估。
- 交互决策模型中多样化智能体行为
该研究通过多智能体系统中代理行为建模的方法,探究在不确定性环境中如何解决代理之间信息不对称和隐私保护导致的建模不足问题,并提出了一种基于多样性特征的新颖行为选择方法,为在开放性人工智能世界中解决未知未知问题提供了思路。
- SIERRA: 研究自动化的模块化框架
SIERRA 是一个基于科学方法的框架,可加速智能系统研究的发展并提高结果的可重复性。它提供可复制性独立于执行环境和目标平台的自动化,并采用深度模块化方法,以消除手动实验配置和结果处理。
- 第九届认知系统进展会议(ACS)
描述了人工智能和认知科学的初始目标,涉及计算术语解释思想,并在计算工具中复现整个人类认知能力的多项研究, Advances in Cognitive Systems 为该领域的研究人员提供了最新结果和新挑战的场所。
- 借助所有先前的特征提取器,在连续学习中保留之前的知识
本文提出了一种利用所有之前学习的特征提取器的融合机制,并加入新的特征提取器和剪枝来防止模型膨胀,以降低早期学习旧知识的遗忘,从而有效改善连续学习性能表现。在多个分类任务上实验表明,该方法可以显著减少旧知识的遗忘,实现最先进的连续学习性能。
- 通过事故目录记录防止人工智能重复出现问题:AI 事故数据库
通过建立智能系统事故数据库,可以避免智能系统设计、开发、部署中的重复错误,该数据库已收集了超过 1000 个已经发生的事故报告以支持相关研究和开发用例。
- AAAI人机互动机器学习征求人员反馈会降低用户信任和对模型准确性的印象
通过一个模拟物体检测系统的实验,我们研究了交互反馈对用户对智能系统及其准确性理解的影响,结果表明提供循环反馈降低了参与者对系统的信任和其对系统准确性的感知,这凸显了在设计智能系统时考虑用户反馈对用户信任的影响的重要性。
- AAAI对话策略学习:联合澄清和主动学习查询
本文介绍了一个针对在线购物应用中的任务的交互式基于语言的图像检索任务中训练分层对话策略来共同执行澄清和主动学习的方法,并表明联合学习对于这两个功能的静态对话策略的使用更有效。
- 人工智能的不可解释性和不可理解性
本文描述了两个互补的不可能结果(无法解释性和无法理解性),这两个结果表明,先进的人工智能不能准确地解释一些决策,并且人们也无法理解其中的部分解释。
- 利用生成对抗网络的跨主体迁移学习在人类活动识别系统中的应用
本文介绍了一种名为 SA-GAN(Subject Adaptor GAN)的对抗性学习方法,利用生成式对抗网络框架在穿戴传感器人体活动识别领域进行跨主体迁移学习,表现优于其他现有的方法,准确性高达 90%。