- 交互式文本摘要编辑
通过 REVISE 框架,将神经网络模型及人工编辑相结合,使得文本摘要的过程个性化,协作化和自适应化。
- 俄语轻量级核指代消解:基于分层语篇特征的方法
本研究提出了一种新方法,通过引入修辞信息到神经共指消解模型中,来明确捕获层次化语篇中的指代选择, 并使用多语言实体感知语言模型 LUKE,在 RuCoCo-23 共指消解任务上评估了该方法的性能。实验表明,使用修辞距离的最佳模型在开发集 ( - ACL回归模式:使用特征序列 Trie 进行高效的日本语形态分析
本研究使用最快的基于模式的 NLP 方法,以提高其精度,从而为日语提供简单而准确的形态分析器,该方法可以每秒处理超过 1,000,000 个句子在现代 CPU 上,而与学习为基础的基线相比呈现出相当的准确性。
- 自然语言解释的忠实度测试
本文探讨评估自然语言解释(NLEs)忠实度的挑战性问题,提出了两个测试:第一个是插入导致反事实预测的原因的反事实输入编辑器,第二个是从生成的 NLEs 中说明的原因中重建输入并检查它们导致相同预测的频率。我们的测试可以评估新兴的 NLE 模 - ACL并行数据有助于神经实体共指消解
本文提出了一个简单而有效的跨语言理解模型来利用平行数据中的指代知识,该模型在 OntoNotes 5.0 英语数据集上使用 9 种不同的合成平行数据集实现了一致的提升,最高可达 1.74 个百分点。
- ACL统一多场景摘要评估 (UMSE)
提出了一种用于三种摘要评估方案的统一多方案摘要评估模型(UMSE),其中使用扰动前缀调整方法来共享不同方案之间的信息,通过自监督训练偏向优化统一模型。在常见的标准数据集 SummEval 上进行的实验结果表明,UMSE 的性能可以与专门针对 - ACL反事实探究情感和特异性对群际偏见的影响
本文提出了一个修正过的偏见研究框架,并探讨了不同种族间社交语境下的语言行为与话语两个语用学特征之间是否存在系统地差异。研究发现推理模型可可靠地使用情感特征,但使用特定性特征的模型效果更不确定。
- 多语言摘要中的幻觉检测与缓解
通过发展一种新的度量标准(mFACT)来评估跨语言信实度,利用基于翻译的转移来评估非英语摘要的信实度,通过加权损失方法来减少幻觉,可显著提高交叉语言转移的性能和信实度。
- 基于主题驱动的远程监督框架用于宏观层面的话语解析
通过使用主题结构和教师 - 学生模型的标签转换和 Oracle 注释,我们提出了一种远程监督的框架,用于解决在领域内和领域外任务之间间隔较大的问题。在 MCDTB 和 RST-DT 数据集上,我们的方法都表现出了最佳的性能。
- 使用生成的事实作为原子的自然语言推理的逻辑推理
本研究提出了一种模型无关的逻辑框架,以确定每个输入中负责每个模型决策的特定信息并生成可解释的自然语言推理模型,其性能优于当前最先进的神经模型,适用于高度挑战性的 ANLI 数据集。
- SPARSEFIT:稀疏微调的少样本提示,用于联合生成预测和自然语言解释
本文提出一种名为 SparseFit 的算法,使用离散提示在几个可用的 NLEs 的情况下,只微调神经模型的 6.8%参数即可同时生成预测结果和高质量 NLEs,可取得与精细调整昂贵的 Pre-trained Language Models - IJCAI对抗改正是唯一能将敌人变成朋友的力量
该文研究利用对抗攻击机制修正后可以提高神经网络模型的准确性。通过对攻击样本和正常样本的分布差异进行分析,提出了修正模型的方法 AdvAmd,并验证了其在分类、目标检测和细分等任务中的有效性。该方法通过对中介样本、辅助批次正则和 AdvAmd - ACL在抽象摘要中平衡词汇和语义质量
本文针对序列到序列的神经网络中常见的曝光偏差问题,提出了一种在词法和语义质量之间平衡的重排序方法,并以 BERTScore 为衡量标准,在 CNN/DailyMail 数据集上实现了新的最优表现。
- 运用韵律注意力和蒸馏技术提高端到端 SLU 性能
提出了基于韵律注意力的 End-to-End SLU 模型和基于韵律蒸馏的声学编码器模型,通过利用韵律信息进一步改善意图分类任务表现。
- OpenViVQA: 越南语视觉问题回答任务、数据集和多模态融合模型
本文介绍了 OpenViVQA:首个包含越南语开放式答案的大规模 VQA 数据集,包括 11,000 + 图像和 37,000+ 问答对,并提出了三个融合图像和答案信息的方法(FST,QuMLAG 和 MLPAG),并使用这些融合的特征构建 - SIGIR当新不如旧:深度学习是否真正有益于从隐式反馈中进行推荐?
通过对 13 种流行的推荐模型进行大规模实验,首次提出了一组评估策略来比较神经模型和传统模型在推荐系统的表现,发现在不同方面神经模型都不一定优于传统模型,并且在子群体方面表现更优。
- 利用特征增强和软域迁移进行欺诈检测
利用神经网络模型的中间层表示,我们提出了一种特征增强方法,用于不同信息领域之间的欺骗检测,其中 Tweets 对于虚假新闻和网络钓鱼邮件检测最有帮助,而新闻对于推特谣言检测最有帮助,我们的分析为领域知识转移提供了有用的见解,可以帮助构建比现 - 大型语言模型是强零 - shot 召回器
该论文提出了一种简单的方法,使用大规模语言模型作为信息检索的检索器,从而在零 - shot 场景下提高检索效率。该方法通过在检索词和其他相关域内候选之间进行组合,来辅助语言模型生成更精确的答案,使得检索更加透明,从而实现竞争力更强的检索结果 - 关于方面情感分析的稳健性:对模型、数据和训练的重新思考
本研究针对情感分析在实际应用中的可靠性进行了探究,通过加强当前最佳的句法感知模型,并基于丰富的伪数据进行敌对训练,进一步提高了模型的鲁棒性。实验结果表明,所提出的方法比现有的基线模型的鲁棒性性能更好,同时合成语料库作为额外数据能够进一步提高 - NLP 中输入唯一触发器的后门攻击
本文提出了一种输入唯一的后门攻击方法 (IDBA),可以使能够通过语言模型 (GPT2) 生成上下文相关的后门触发器,解决了现有后门攻击方法的缺陷,不仅可以生成流畅、语法正确且多样化的后门输入,同时也达到了高攻击成功率,且难以被现有防御方法