- GPT 是否真正理解?一种用于衡量人类与人工智能对算法理解的分层量表
大语言模型的理解研究,重点是理解算法,通过层次结构设计、人类和大语言模型的研究,揭示相似性和差异性,该研究可用于跟踪人工智能在认知领域的进展。
- 将表征性手势融入自动生成的具身化解释并其对理解和交互质量的影响
通过开发一个集成了拍手手势和象征性手势的虚拟解释器来研究手势对解释的影响,发现手势无法单独或与拍手手势结合使用超越基准或仅使用拍手手势的条件在理解方面的表现,但是与先前的研究相比,具身化代理显著增强了理解。
- 理解理解:受大型语言模型驱动的实用框架
通过随机采样和应用概率置信边界,我们提出了一个测试任何机器或人类是否理解一门主题的框架,其中包括确定问题范围、要求一般能力和避免荒谬答案,但允许某些问题的错误和 “我不知道” 答案。根据我们的框架,目前的大型语言模型不能说理解非平凡领域,但 - 同时评估 LLMs 中的多个问题:评估 LLM 能力的新范式
当前的 LLM 评估主要通过包含单个问题的提示进行评估。我们提出多问题评估作为研究 LLM 的多问题处理能力的额外方法。我们在这方面进行了系统研究,通过全面考察 4 个相关类型的任务上的 7 个 LLM,这些任务是基于 6 个分类基准构建的 - 嵌入中藏着什么?无论是什么嵌入,玫瑰都会闻起来一样香吗?
大型语言模型 (LLMs) 通常被批评缺乏真正的 “理解” 和 “推理” 能力,被视为高级自动填充系统。本研究认为这种观点可能忽视了一个重要的见解,即 LLMs 确实发展出一种类似于 “几何” 的经验性 “理解”,这对自然语言处理、计算机视 - 论机器理解
构建一个能够理解的机器的方法和机器理解程度的实验方法和建议。
- 从形式到含义:利用多义一致性探测语言模型的语义深度
大规模语言模型的理解能力在不断增长,但与人类理解相比仍存在差距,特别是在多义一致性方面,这对它们在学习人类语言和理解方面的效用产生了影响。
- 解释黑客:算法求救的危险
我们主张理解 AI 决策的解释,而不是提供可行且可执行的回应解释,以避免伦理上的不利影响。
- 僵尸们理解吗?机器认知的选择自冒险探索
在这篇论文中,我们提出了一个思想实验,涉及一个在各种基准测试中表现出色但似乎没有主观经验的开源聊天机器人 $Z$,并讨论了关于理解的定义和意识作用的不同观点,揭示了所涉及的术语上的分歧。我们提出了两个明确关注意识问题的理解工作定义,并与哲学 - LLMs 与人的境况
这篇论文介绍了三种已建立的人类决策理论,并描述了它们如何集成以提供有目的的人类行动模型。将语言视为行动的想法在论文中应用于会话式用户界面,并旨在重新激发对理解 LLMs 实际操作的兴趣。
- FATURA: 一种用于文件分析与理解的多布局发票图像数据集
FATURA 是一个包含多样布局、带有标注的发票文档图像的数据集,是迄今为止已知的最大公开可访问的发票文档图像数据集,提供了全面的文档分析和理解任务的基准,并在不同的训练和评估场景下进行实验,为研究人员推动文档分析和理解领域提供了帮助。
- XAI - 解释的理解形式
在计算机科学和人工智能中,可解释性已经成为一个重要的话题,从而引出了一门称为可解释人工智能(XAI)的子领域。本概念性的文章旨在从跨学科的视角,将计算机科学、语言学、社会学和心理学整合,探讨在 XAI 和其他领域中理解及其形式、评估和动力学 - 生成型人工智能的悖论:「它能创造,却未必能理解」
这项研究揭示了生成型人工智能模型在超人能力生成方面表现出色,但在理解能力方面远远落后于人类,从而提出了 “生成型人工智能悖论” 假说,并通过对语言和图像模式下的控制实验进行了验证。
- 一段视频价值 4096 个令牌:通过零 - shot 方法口头描述视频以理解其含义
通过将视频转化为自然语言描述,本文提出一种方法来解决缺少训练集的多媒体理解问题,并且在视频理解任务中发挥了显著的优势,同时还公开了第一个数据集,用于计算社会科学中的说服策略识别。
- WikiWeb2M:一份基于页面级别的多模态 Wikipedia 数据集
通过保留完整的图像、文本和结构数据,Wikipedia Webpage 2M(WikiWeb2M)套件旨在研究多模式网页理解,如页面描述生成、部分摘要和上下文图像说明。
- ChatGPT 是否具备情感对话能力?
本研究基于由 OpenAI 研发的先进语言模型 ChatGPT,探讨了其情感对话能力。研究通过一系列下游任务实验,评估了 ChatGPT 在情感对话理解和生成方面的表现,并发现虽然 ChatGPT 在情感对话理解方面的性能仍然存在问题,但在 - 人工智能系统是否具有理解能力?
本文旨在探讨 “智能机器” 是否有能力理解人类语言,其中涉及了语法和语义之间的关系,指出了语义对于讨论建立 “有意识的机器” 这一问题的不可避免性,并得出结论:在当前技术发展的状态下,将智能视为一种任务解决工具,无需将理解归于机器。
- CVPR针对 VQA 的问题条件反事实图像生成
通过学习生成对抗性图片对视觉问答模型进行解释,从而使得人们可以理解其内部机制。
- 机器学习可解释性:一门科学而非工具
提出基于问题科学方法的机器学习可解释性框架,旨在回答与可解释性相关的特定问题,从而更深入地理解机器学习科学而非工程,同时不仅仅依赖于机器学习方法。