高效编码格子用于重排
提出使用预训练的 encoder-decoder 模型,通过 document to query generation 来进行重新排名,同时在推理时,将其分解为仅有 decoder 的语言模型以提高推理速度,实验结果表明该方法可以比传统的交叉注意模型快 6.8 倍,并且能取得相当的效果。
Apr, 2022
本研究提出了一种搜索算法,采用重构解码作为最佳优先搜索,并重新考虑了假设重组的想法,通过在搜索期间识别并合并相似的文本生成候选项,构建了许多多样化的文本生成选项,并在文本摘要和机器翻译上表现出很好的效果。
Dec, 2021
利用超几何空间重新训练语言模型中的分层转换器编码器(Hierarchy Transformer encoders,HiTs),为回归语言模型中隐含的分层结构提供了一种新的方法,通过聚类与层级组织相关实体来提高在推论、预测和跨层次知识传递等任务中的性能和可转移性。
Jan, 2024
该论文提出了一种基于词格的循环神经网络编码器用于解决中文等没有自然词分界符的语言在神经机器翻译中遇到的问题,该编码器不仅可以缓解对分词错误的负面影响,还具有更高的表达和灵活性。实验结果表明,该编码器优于传统编码器。
Sep, 2016
通过使用广播查询编码器引入了一种高效的标题重排技术,比传统的段落重排器快 20 倍至 40 倍。该论文介绍了使用 Sigmoid 技巧解决稳定性问题,提高了重排的效果,并在 kilt 知识基准测试中实现了四个最新成果。
Dec, 2023
提出了一种新颖的学习型后交互模型(LITE),通过解决轻量级评分器的手工设计和访问个体文档令牌嵌入的问题来改善查询 - 文档关联性在信息检索中的性能,并在领域内和零样本重排序任务上优于以前的后交互模型。
Jun, 2024
本文提出引用对齐器和模态切换训练来更好地对齐语音和文本潜在空间,实验结果在 Librispeech ASR 任务和 SNIPS 槽填充任务上都表现出了显著的性能提升。
Oct, 2021
该论文提出了一种利用 BERT 表示和 learning-to-rank 模型进行文档排序的机器学习算法。在公共基准测试中,采用这种方法可以取得更好的表现。最新的实验使用 RoBERTa 和 ELECTRA 模型,取得了较之其它方法更好的排名成绩。
Apr, 2020
通过引入基于格的编码器,本研究旨在探索有效的单词或子单词表示形式,进而提高基于 Transformer 的神经机器翻译的性能。实验证明,这种新型编码器在单词水平和子单词水平的表示方面优于传统的 Transformer 编码器。
Jun, 2019
该研究旨在探究如何利用预训练的上下文化语言模型(ELMo 和 BERT)进行即席文档排名,并提出了一种联合方法,称为 CEDR(用于文档排名的上下文化嵌入),证明它优于现有的排名基线。
Apr, 2019