- 2024 年 V3Det 挑战赛:广泛词汇和开放词汇目标检测的方法和结果
通过分析参与者提交的方法和解决方案,我们旨在激励巨大词汇和开放词汇目标检测领域的未来研究方向,推动该领域的进展。
- 基于地图的模块化方法用于零说明笔体问答
提出了一种基于地图的模块化 EMQA 方法,通过基于边界的地图创建,使用支持开放词汇表的基础模型,使得真实机器人能够在未知环境中导航,并针对未知问题答案对进行处理,在虚拟环境和两个真实家庭环境上进行了综合实验,证明了方法在真实世界中的有效性 - 探索大型基础模型在开放词汇 HOI 检测中的潜力
通过引入条件多级解码和细粒度语义增强(CMD-SE)的新型端到端开放词汇 HOI 检测框架,利用视觉 - 语言模型 (VLMs),本研究模拟不同距离的人 - 物对的不同特征图级别,进一步利用大型语言模型(LLMs)生成人体部位状态的描述,以 - OpenOcc:基于占据表示的开放词汇量三维场景重建
我们提出了 OpenOcc,一种将 3D 场景重建和开放词汇理解与神经辐射场结合的新型框架。通过占位表示法对场景的几何结构进行建模,并通过体素渲染将预训练的开放词汇模型蒸馏为 3D 语言场,以实现零 - shot 推理。此外,我们提出了一种 - Open3DSG: 从点云生成可查询对象和开放关系的开放式词汇 3D 场景图
使用开放的词汇表以及与场景图特征和查询对象类别联系的扎根 LLM,Open3DSG 作为第一个可以预测不仅是明确的开放词汇对象类别,还包括预定义标签集以外的开放集关系的三维点云方法,在零样本学习方式下有效预测任意对象类别及其描述空间、支持、 - 生成模型实现开放词汇极端分类
本文提出了一种针对开放词汇的极端多标签分类(OXMC)任务的序列到序列模型 ——GROOV,该模型可预测给定语料库之外的标签,且在预测已知标签时与现有最先进解决方案表现相当。
- ECCV带伪边界框标签的开放词汇目标检测
本研究提出一种方法,从大规模图像 - 字幕对中自动生成多样物体的伪包围框注释,以扩大训练基础类别的范围,并通过实验证明该方法在各种数据集上比最先进的开放词汇检测器有更好的检测结果。
- EMNLP开放领域流程文本实体跟踪数据集
本篇论文利用开放词汇表,提出一种新的任务形式,通过给定程序文本来生成每个步骤的状态更改元组,并使用众包创建数据集 OPENPI1,其中包含来自 WikiHow.com 中 810 个实际段落、4,050 个句子的 29,928 个状态更改, - 对话状态跟踪中联合优化状态操作预测和值生成
本文提出了一种基于 Transformer 的框架,将 BERT 作为编码器和解码器,通过共同优化操作预测目标和值生成目标来实现多领域对话状态跟踪,同时重复使用编码器的隐藏状态构建平面编码器 - 解码器架构来实现有效的参数更新,实验表明我们 - 基于状态图的跨领域对话状态跟踪
本文探讨了利用关系图与 relational-GCN 图卷积网络构建聊天机器人多域对话跟踪模型的方法,实验结果表明,该方法实现了新的最佳性能,优于使用现有方法提出的深度学习技术的性能。
- Typilus: 神经类型提示
本研究提出一种基于图神经网络的类型推断模型 Typilus,借助深刻相似度学习从程序结构、名称和模式角度预测变量类型,模型可采用一次学习预测任何罕见和用户定义的类型,成功应用于 Python,并能够精准地预测符号类型并找到不正确的类型注释。
- Big Code != Big Vocabulary: 开放词汇模型用于源代码
本文研究了大规模源代码资料库上各种建模选择如何影响产生的词汇表并呈现出一个开放式词汇表源代码 NLM,可以扩展到比之前的工作大 100 倍的这样一个资料库,并表明这样的模型在三个不同的代码资料库(Java,C,Python)上优于现有技术。
- ACL在开放词汇神经语言建模中学习创造和重复使用单词
使用具有缓存机制的分层 LSTM 语言模型在多种语言维基百科文章上进行开放词汇量语言建模,通过字符级别的生成实现不同语言之间的数据共享,进而可以有效解决固定词汇量模型中常见的新词问题。
- AAAI使用分布式统计和形式知识的开放词汇语义解析
本文提出了一种语义解析器,它能够利用语料库和知识库的信息,不受知识库架构限制,从而在开放域自然语言问答任务中取得了显著的性能提升。
- ACL基于混合词字模型实现开放词汇神经机器翻译
本文提出了一种用于实现开放词汇神经机器翻译的新型字符 - 词汇结合方案,比基于字符的方案更易于训练且不会产生未知单词,同时在 WMT'15 英译捷克任务中最高 BLEU 分数达到 20.7。
- 循环神经网络的领域自适应应用于自然语言理解
使用多任务学习方法,缩短新任务学习所需的数据量,以提高自然语言理解中的 slot 填充模型适配多目标任务或领域的效率。该多任务模型可以利用在其他任务中学习到的模式,以较少的数据获得更好的性能,并支持开放词汇,可以很好地应用于微小数据量的训练