DREAM是第一个基于会话的多项选择阅读理解数据集,包含10197个问题,针对6444个对话,84%的答案是非提取式的,85%的问题需要超出单个句子的推理,34%的问题涉及常识知识。Neural networks的应用对数据集的阅读理解性能有很大改善。
Feb, 2019
通过计算自传和想象故事之间的sequentiality来探究记忆和推理对语言生成过程的影响。
Jan, 2022
采用大型语言模型来解决自然语言处理工具在梦境研究中的局限性,通过使用混合的现成和定制方法,特别关注情感参考,最终表明我们的方法可能在大型梦境数据集的分析中应用,并可能有利于研究结果的可重复性和比较性。
Feb, 2023
本篇论文利用大型语言模型研究了梦境描述和其他人类生成文本的相似度,发现总体而言梦境描述并未与维基百科等非梦境语料有明显差异,且单个梦境描述比维基百科文章更易预测。同时,文章还发现词数、性别和视力障碍等因素可能会对梦境描述的可预测性产生显著影响。
May, 2023
本文分析了一个视觉档案,其中互动机器人艺术装置根据观众讲述的梦境生成图像,通过CLIPdraw深度学习模型解释和转换。结果表明四个概念分组描述和解释了CLIP生成的结果:清晰的概念,文本转图像,不确定和混乱以及翻译问题。最终,文章认为所提出的分组支持对神经模型的更好理解。
Jun, 2023
通过使用生成型人工智能模型的情感界面,用户可以回忆和反思他们的梦境体验,进而以有意义的方式重新体验和反思自己的经历。
Mar, 2024
通过自然语言序列到序列生成框架,本研究首次在开放的DreamBank梦境叙述语料库的英文部分中对字符和情感进行检测,结果显示语言模型能够有效应对这一复杂任务。
本研究针对语言模型的幻觉问题,特别是训练集中的正确答案如何影响幻觉现象。通过构建知识图谱数据集并训练不同规模的语言模型,发现更大的模型和更长的训练时间会降低幻觉发生率,但要实现较低的幻觉率需要显著更大的模型和计算成本。此外,研究还揭示了语言模型的规模与幻觉可检测性之间的逆向关系。
Aug, 2024
本研究解决了分类任务中探索与精确性的平衡缺口,提出了两个新型深度学习模型SleepNet和DreamNet。通过将监督学习与无监督的“睡眠”阶段结合,研究显示这些模型在多种图像和文本数据集上超越了当前最先进的模型,展示了无监督探索与监督精确相结合的优势。
Sep, 2024
本研究解决了分类任务中探索与精确之间的平衡问题,提出了全新的深度学习模型SleepNet和DreamNet。利用无监督的“睡眠”阶段和完整的编码器-解码器框架,这些模型有效地提升了学习表现,展示了对计算机视觉和自然语言处理任务的优越性能。