- 通过 ChatGPT 的自动代码摘要:我们还有多远?
本文重点评估了最流行的大型语言模型 ChatGPT 在自动代码注释中的性能,并将其与其他最先进的代码摘要模型进行比较,结果表明在 BLEU 和 ROUGE-L 方面,ChatGPT 的代码摘要性能显着低于其他三个模型。
- LMGQS:一份用于查询聚焦摘要的大规模数据集
利用预训练语言模型,在大规模通用文本摘要数据集上建立了新的面向查询摘要的基准数据集,并在多个现有数据集上实现了零样本和有监督下的最先进工作性能。
- 指导性调整的模型具有快速学习能力
本文研究指令优化对增强模型转移学习和增强其在不同自然语言处理任务方面的效果,并表明在使用指令的预微调下,模型在单任务和多任务方面的性能都得到了提高。
- SIGIRSEA: 一个可扩展的实体对齐系统
SEA 是一种可伸缩的实体对齐系统,借助于图神经网络作为编码器,在实际应用中进行大规模的实体对齐,其包含六个最新的实体对齐模型,能够加速归一化和评估过程。
- ChatGPT 还是 Grammarly?评估 ChatGPT 在语法错误更正基准上的性能
本文评估了 AI 语言模型 ChatGPT 在语法纠错任务上的表现,通过与 Grammarly 和 GECToR 等商业和先进模型比较,发现 ChatGPT 在自动评估指标上表现较弱,但经过人工评估,发现 ChatGPT 更倾向于修改某些短 - ACLViHOS: 越南语仇恨言论跨度检测
概述:该研究提出了 ViHOS 数据集,它是第一个包含 11k 条评论和 26k 个含有仇恨和攻击性言论的人工标注的数据集。通过使用各种最先进的模型进行实验,我们发现 XLM-R $_{Large}$ 在单个范围检测和所有范围检测方面取得了 - 针对仇恨言论的 T5 增强数据和集成方法
本研究使用不同最新模型对自动检测仇恨言论进行全面探究,发现数据增强和集成方法对模型有何优点,并使用两种可解释人工智能算法揭示模型如何做出预测。同时,发现缺乏数据注释和质量控制,提出了一个简单的机制用于纠正 T5 模型中的错误预测,并公开模型 - EMNLP课程学习中的生成实体类型
通过预训练语言模型和课程学习的方法,我们提出了一种新的生成式实体类型标注(GET)范例,其表现优于现有的实体类型标注模型。
- ACL精细对比学习用于定义生成
本文提出一种新型对比学习方法,以有效地学习和表达所考虑词语的语义组成部分,并使模型在进行定义生成任务时,能够生成更具体、高质量的定义,实验证明该方法优于现有模型。
- 联合实体 - 关系抽取的两阶段范式
文章提出了一个两阶段范式结合全局特征的跨度模型联合实体和关系抽取方法,实验表明这种方法优于之前的现有模型,并建立了一个新的标准基准。
- CVPR衡量视频问答的组成一致性
本文开发了一个问题分解引擎,能将组合问题分解为子问题的有向无环图。使用问题图,我们评估了三个最先进的模型,并使用一组新的组成一致性指标。 我们发现,这些模型无法正确地通过大多数构图进行推理,或者依赖于错误推理来获得答案,并在中间的推理步骤失 - MM手语识别的综述:不同类型、模式和数据集
这篇综述论文对手语识别相关的需求、挑战、问题、模态以及数据集等方面进行了全面的概述,并对过去十年的研究进展及现有现状下的 SLR 模型进行了回顾和总结,最后找到了该领域的研究差距和局限性,并提出了未来的研究方向,为读者和研究者提供了完整的关 - ACL用于命名实体识别的并行实例查询网络
提出了 Parallel Instance Query Network (PIQN),并将标签分配视为基于 Linear Assignment Problem (LAP) 的一对多问题,通过全局可学习实例查询并行提取命名实体,取得了比之前最 - ACLE-KAR:自然语言类比推理基准测试
该文提出了一种可解释的基于知识的类比推理基准 (E-KAR),通过收集并手动注释民族公务员考试中的问题及备选答案来测试基于神经网络的类比问题回答和解释生成能力,结果表明该基准对于某些最先进的技术仍具有挑战性。
- ACL使用点击流数据增强背景信息的短文本匹配
该研究提出了一种短文本匹配框架,使用自我注意机制引入外部知识以增强文本的上下文表示,实验证明该框架的性能优于现有的短文本匹配模型。
- 基于问答句子图的答案选择联合建模
该研究研究了基于图的方法,用于回答句子选择 (AS2),这是构建基于检索的问答系统的重要组成部分。我们的模型创建一个相关训练图,以执行更准确的 AS2。实验表明,我们的方法一致优于最先进的模型。
- AugLy: 针对鲁棒性的数据增强技术
介绍了一个数据增强库 AugLy,特别注重对抗性鲁棒性,提供了多种不同类型数据增强方式,可用于任何数据增强的任务中,具有系统生成对抗性攻击和评估模型鲁棒性的实用性。
- KDDTopNet: 从神经主题模型学习生成长篇故事
该研究提出了一种使用神经主题建模来生成骨架单词的方法,以解决自然语言处理中长篇故事生成由于输入信息稀疏而存在的问题,并在自动和人工评估中显著优于现有模型。
- ACL生成式知识促进常识推理
通过从语言模型中产生知识并将其作为额外输入用于回答问题,我们开发了一种生成知识提示方法,它不需要针对知识集成的任务特定监督,也不需要访问结构化的知识库,并在四个常识推理任务中提高了大规模、最先进模型的性能。这凸显了大规模语言模型作为提高常识 - ACL提升一致性:当你的预训练语言模型未能足够关注时
本文研究了大语言模型在长范围语义连贯性方面的问题,提出一种名为 “连贯提升” 的推理方法,能够提高语言模型对长内容的关注,通过分布分析证明了连贯提升的优点,并发现其在零样本自然语言处理任务中也能产生性能提升,而无需额外的训练。