帧移预测
本文提出了第一个基于概率的帧感应方法,它将框架、事件、参与者作为潜在主题,学习最能解释文本的框架和事件转换。通过句法分析的新型应用进行了框架的推断。在从文本到诱导的框架和提取的事实的端到端评估中,我们的方法产生了最先进的结果,同时大大减少了工程工作量。
Feb, 2013
本文介绍语义框架预测技术,通过将长篇小说拆解为一系列固定长度的 “故事块”,使用语义框架频次标准化的方法,自动预测出后续故事情节。实验证明,当块长度超过 150 句时,此技术的自动化预测效果显著优于其他现有的方法。
Apr, 2021
该论文介绍了零样本学习下多语种多标签框架检测任务的获胜系统,其采用多语种 Transformers 进行预训练,并使用有标签的对比损失函数。此外,作者进行了嵌入空间分析和消融研究,证明了他们的预训练程序如何支持框架检测,推动了计算框架分析的发展。
Mar, 2023
基于 transformer-based 模型的多任务学习在框架语义解析中取得优越性能,并且在 PropBank SRL 解析上也表现优于现有最佳系统。
Oct, 2020
本研究探索了通过众包进行数据集创建的可能性,利用非专家注释员开发训练语料库,扩展了多语种的媒体框架分析并提供了孟加拉语和葡萄牙语的新基准数据集,展示出在众包数据集的基础上与其他现有数据集相结合,从而使基线提高 5.32 个百分点,并发现任务特定的精调是比使用更大的非专业模型更好的方法。
Apr, 2024
本文提出了一种基于无监督方法的视频帧预测技术,相比直接预测未来帧中每个像素点,本文预测未来帧的变换过程,同时提出了一种新的评估协议,该方法在 UCF-101 数据集上进行了验证,在参数和计算成本上更加高效。
Jan, 2017
在机器学习任务中,分布偏移是一种常见情况,其表示训练模型使用的数据与实际应用模型的数据不同。本文旨在定义和检测教育环境中的分布偏移,关注标准预测问题,即学习一个以输入序列为输入(预测变量)X=(x_1,x_2,...,x_m) 并生成输出 Y=f (X) 的模型。
May, 2024
通过概率性的图像模型,我们提出了一个通用的图像建模和视觉任务框架,该框架统一了广泛的任务,包括图像分割、新视角合成和视频插值。我们采用一种称为 Transframer 的结构来配对这个框架,它使用 U-Net 和 Transformer 组件对标注上下文帧进行条件,并输出稀疏压缩图像特征序列,而且 Transframer 能够在各种视频生成基准测试中超越最强的挑战者,在少样本视角合成方面具有竞争力,甚至可以从单个图像生成连贯的 30 秒视频而不需要任何明确的几何信息。在没有任务特定架构组件的情况下,一个多才多艺的 Transframer 可以同时在 8 个任务中产生有希望的结果,包括语义分割、图像分类和光流预测,这表明可以使用概率图像模型来处理多任务计算机视觉。我们的方法原则上可以应用于需要学习标注图像格式数据的条件结构的广泛应用。
Mar, 2022