BriefGPT.xyz
大模型
Ask
alpha
关键词
multi-task loss
搜索结果 - 2
增强主题连贯性的基于预训练 Transformer 的神经文本分割模型
本文提出了一种名为 Transformer$^2$ 的基于 transformer 的 transformer 框架,用于进行神经文本分割,并在实验中证明了其在语义一致性方面的优越性。
PDF
3 years ago
IJCAI
学习暗示性时间对齐用于小样本视频分类
本文提出了一种新的基于匹配的少样本学习策略,结合隐式时间对齐和上下文编码模块以及多任务损失,用于解决视频分类中在有限标注情况下空间 - 时间表征的学习问题,并在两个具有挑战性的基准测试中证明了其优越性。
PDF
3 years ago
Prev
Next