PASTA: 叙述中参与者状态建模数据集
本文介绍了一种基于数据表的事实验证的新方法 PASTA,使用已经进行了先前训练的语言模型和通过合成句子 - 数据表填空问题而得到的 1.2 百万个数据对进行预训练,PASTA 在 TabFact 和 SEM-TAB-FACTS 两个基准测试中实现了最新的最佳表现
Nov, 2022
通过自我监督学习,本研究建立了一种预训练行为 - 状态 Transformer 代理模型(PASTA),并在行为克隆、离线 RL、传感器故障鲁棒性以及动态变化适应等广泛领域的下游任务中进行了综合研究和比较设计选择,以提供有价值的见解给从业者,从而构建更加鲁棒的模型并推动 RL 策略学习的发展。
Jul, 2023
介绍了一种新的注释框架,用于解释故事人物的幼稚心理作为具有动机和情感反应的完全指定的心理状态链,建立了一个新的大规模数据集,并在多个新任务上建立了基准性能,为未来研究提出了新的思路。
May, 2018
本文提出一种基于 Transformer 模型的对话生成算法,在动态更新实体状态以及句子实现方面做了扩展,并引入了对比学习框架来学习状态表示,实验表明其比现有基线算法在生成连贯且多样化的文本方面具有更好的表现。
Aug, 2022
该研究提出了一个针对描述动态世界的文本流程(例如光合作用)的新数据集和模型,并引入了两种利用 LSTM 输入编码和跨度预测进行状态预测的新型神经模型,从而实现对实体状态(位置和存在)进行全注释,并显著提高了准确率(高达 19%)。
May, 2018
本研究提出了一个新的路径,通过首先推断人体部位状态,然后基于部位级语义推理出活动,以此构建人类活动知识引擎,利用人类身体部位状态(PaSta)和大规模知识库 PaStaNet,采用两种模型 Activity2Vec 和基于 PaSta 推理的方法,在监督和转移学习中显著提高了表现。
Apr, 2020
本篇论文利用开放词汇表,提出一种新的任务形式,通过给定程序文本来生成每个步骤的状态更改元组,并使用众包创建数据集 OPENPI1,其中包含来自 WikiHow.com 中 810 个实际段落、4,050 个句子的 29,928 个状态更改,该任务的最新生成模型在此数据集上实现了 16.1% 的 F1,留有足够的空间提出新的模型结构。
Oct, 2020
介绍了一种名为 PASTA 的方法,该方法允许大型语言模型通过用户指定的强调标记来读取文本,从而提高模型遵循用户指示或整合来自用户输入的新知识的能力。
Nov, 2023
本文提出了一种计算模型,通过分析角色猜测的心理状态和句法和语义层面的语言信息,自动检测叙述结构的主要元素。通过使用预先训练的社交常识知识模型获取主角的心理状态信息,并使用多功能融合方法将其与语境语义嵌入相结合,我们建立了一个包含手动注释的 STORIES 数据集的计算模型来实现这一任务,并在评估中发现我们的模型能够实现极显著的改进来识别高潮和结局。
Feb, 2023
本文提出了一种实体为基础的叙述图(ENG),能够更好地建模故事中角色的内部状态,包括他们的动机、目标和心理状态,并通过实验和定量分析来评估其在预测角色心理状态和愿望实现任务中的表现。
Apr, 2021