跨变分自编码器实现答案检索
提出了一种基于双编码器的框架,引入了变分自动编码器来增强对话交互,以提高问题回答(QA)系统中答案检索的效率,并且通过使用新的几何对齐机制(GAM)与交叉编码器对齐来显著提高了模型的性能。
Jun, 2022
本研究探讨了使用生成对抗网络(GANs)、自编码器和注意力机制改进视觉问答(VQA)的创新方法。研究发现,通过利用一个平衡的 VQA 数据集,GAN-based 方法提供了生成与图像和问题相关的答案嵌入的潜力,但在处理较复杂的任务时存在困难。相比之下,基于自编码器的技术专注于学习问题和图像的最佳嵌入,由于在处理复杂问题上能力更强,其结果与 GAN-based 方法相媲美。最后,注意力机制结合多模态紧凑双线性池化(MCB)来解决语言先验和注意力建模问题,但在复杂性和性能之间需要权衡。本研究强调了 VQA 领域的挑战和机遇,并提出了未来研究的方向,包括替代 GAN 的形式和注意力机制。
Apr, 2024
本文提出一种新的无监督框架 RAMN 用于计算两个问题之间的语义匹配,并利用注意力自编码器生成问题的语义表示。该方法在 SemEval-2016 和 SemEval-2017 的实验数据集中比有监督方法更具竞争力并取得了更好的性能。
Mar, 2018
本文探讨了不依赖词级对齐的跨语言自编码器方法,学习在两种语言之间对齐的词矢量表示,并提出了一种显式的相关性最大化正则化器来提高性能,并在跨语言测试分类问题上进行了实证研究,其结果与现有研究表现相当甚至取得了 10-14 个百分点的提高。
Feb, 2014
提出使用变分自编码器和 Transformers 构建两种具有归纳偏置的模型,可将潜在表示中的信息分离成可理解的概念,其中 QKVAE 在转移实验中表现出竞争性能,并展示了明显的优化句法角色分离能力。
May, 2023
提出一种将问题回答建模为一种对齐问题的结构支持向量机方法,通过将问题和上下文分解成基于语义角色的单元,并将问题与上下文的子图进行对齐以找到答案,该模型可用于跨领域问题回答,且通过对齐得分派生出的限制使模型更加鲁棒。
Apr, 2020