本研究从认知科学研究成果出发,对类比推理的六个维度进行了规范,在寓言语料上进行了注释,并定义了四个任务来评估新型 AI 技术的可扩展性,实验结果显示现有的方法能够在有限的范围内推理类比,但需要进一步的研究来提高 AI 的综合性和可扩展性。
Jun, 2022
在本文中,我们利用类比推理介绍了一种推断缺失知识的机制,用于完善本体论,从而解决现有本体论不完整的问题,并且提出了一种基于双射映射的新型语义,分析了该语义下类比的特性,展示了两种合理的推断模式:规则翻译和规则外推。
May, 2021
通过测试几种学习基本类比推理的方法,研究人员发现模型在少量数据情况下也能学习类比推理,并与人类基准数据集进行比较发现,经过训练后,模型接近人类表现。
Oct, 2023
该研究通过关注数据的选择和呈现方式,研究神经网络在感知和推理原始视觉数据时如何诱导类比推理能力,并发现最健壮的类比推理能力是通过在输入域中对抽象关系结构进行对比学习而诱导的。
Jan, 2019
本文综述了人类学习、推理和适应新领域的关键能力 —— 概念抽象和类比制定,以及通过符号方法、深度学习和概率编程归纳等多种途径构建具有这些能力的 AI 系统的优势和局限性,最后提出了设计挑战任务和评估指标的几点建议,以在此领域取得量化和可推广的进展。
Feb, 2021
通过将人类语言与类比制造联系起来,我们使用大规模预训练的语言模型(PLMs)来支持人工智能系统的类比能力,将感知特征转换成语言形式,PLMs 展现出惊人的零 - shot 关系推理能力,并在 RPM 测试中接近监督的以视觉为基础的方法。
May, 2023
该论文提供了自然基于示例的可解释人工智能领域的现状概述,描述了每种方法的优点和缺点,并比较了它们的语义定义、认知影响和附加价值。希望这将鼓励和促进未来在此领域的工作。
Sep, 2023
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。
May, 2024
通过学习较简单的 “问题模式” 结构表示,并结合众包和递归神经网络从产品描述中提取目的和机制向量表示,使我们在寻找类比时可以比传统信息检索方法获得更高的精确度和召回率,在创意发想实验中,模型检索的类比与传统方法相比, 显著提高了人们产生创造性想法的可能性,这一结果表明,在许多大规模的现实生活情境下,学习和利用较弱的结构表示是实现计算类比的一种很有前途的方法。
Jun, 2017
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
Nov, 2018