- 大型语言模型中的功能向量
通过对多样的上下文学习任务的因果中介分析,我们发现一种简单的神经机制,在自回归 Transformer 语言模型中将输入输出函数表示为向量,这种向量被我们称为函数向量(Function Vector)。函数向量(FV)对上下文的变化具有鲁棒 - EMNLP探索 LLMs 用于仇恨言论检测:优势和脆弱性
利用不同的提示变体、输入信息和在零样本设置中评估大型语言模型,研究探讨在检测讨厌或有害语言时使用解释、上下文和受害群体信息,并发现不仅将目标信息包含在流程中可以显著提高模型性能 (约 20-30%),而且将理由 / 解释加入流程会在不同数据 - 生成型 AI 系统的社会技术安全评估
生成型人工智能系统的安全评估需要考虑风险,本文提出了一个三层框架来评估这些风险,结合体系安全原则并考虑人类互动和系统影响作为额外的评估层,同时分析现有的安全评估存在的几个问题并提出解决办法,以此实现生成型人工智能系统的全面安全评估。
- ACL新闻中的目标感知背景政治偏见检测
媒体偏见检测需要综合多个新闻来源的信息,以句子级别的政治偏见检测为例,通过考虑上下文中的偏见而进行的任务被证明是一项具有挑战性的任务。我们提出了一种更加小心地搜索上下文的技术,采用偏见敏感和目标感知的数据增强方法,通过与 BERT 等预训练 - 通过利用目标语言上下文提升端到端会话语音翻译
在这篇研究中,我们介绍了如何在端到端语音翻译中引入目标语言上下文,以增强连贯性并克服扩展音频片段的内存限制。此外,我们还提出了上下文丢弃以确保对上下文缺失的鲁棒性,并通过添加说话者信息进一步提高性能。我们的上下文化端到端语音翻译方法优于孤立 - 上下文感知的目的明确视觉问答
通过引入 Context-VQA 数据集,我们发现上下文会影响问题的类型,对于满足人们的需求,尤其是在可访问性设置中,VQA 模型应该具有上下文敏感性。
- 提升模型的上下文理解能力与更长更好的语境
最近,随着大量的大型语言模型(LLMs)的出现,人工智能的实施进入了一个新时代。尽管这些模型本身具有能力和结构,但对于 LLMs 来说,能够对更长、更复杂的上下文具有增强理解能力而又保持相对较小的规模的需求不断增长。本文在对 LLMs 内部 - 短文本上下文敏感情感分析
该研究提出了一种新的情感分析方法 CIDER,利用上下文敏感的方式将情感计算应用于具有不同语境的一组文本,并证明其表现优于先前研究中的通用情感分析方法。
- 医学视觉问答中的本地化问题
文章提出了一种针对医学图像的视觉问答模型,该模型能够考虑上下文并回答关于图片区域的问题,实验结果表明该方法在三个数据集上优于现有方法。
- 自适应两阶段知识蒸馏缩小流式转导 ASR 和非流式转导 ASR 之间的差距
本文提出了一种自适应两阶段知识蒸馏方法,其中包括隐藏层学习和输出层学习,以缩小流式语音识别中流式和非流式转导模型的性能差距,并在 LibriSpeech 语料库中相比原始流式模型获得了 19% 的相对降低的词错误率和对第一个令牌的更快响应。
- 常数内存注意力块
提出了 CMAB 的全新通用关注块的方法,并展示了在神经过程和时间点过程中竞争状态下达到与现有技术相当结果的大量经验证据,同时显著提高了内存效率。
- 使用带标记的上下文提示捕捉 LLM 幻觉
本文提出了一种新颖的方法来识别和标记 LLMs perform out of knowledge 的情况,并确保用户获得准确的信息。通过使用上下文和嵌入标签,可以成功地消除生成语言模型中的幻觉。在对测试生成引擎的问题提示进行上下文基线幻觉频 - 基于知识增强的上下文化方法检测迷因的解释性证据
该论文提出了一种新任务 MEMEX,旨在挖掘梗背后的背景信息,为此,他们开发了一个名为 MCC 的新数据集,同时提出了一种名为 MIME 的多模态神经框架,它使用常识丰富的梗表征和分层方法来捕捉梗和背景之间的跨模态语义依赖关系,获得了比最好 - Lexinvariant 语言模型
本篇论文研究如何构建无需固定 token embeddings 的 lexinvariant 语言模型,并以证明、构建和实证为路径,通过高效的词频以及已生成文本的置换密文中如何隐式实现贝叶斯上下文解密以及所有合成推理和推理任务的统计力量
- ACL面向不同语种交流者的语音对话翻译
本研究提出一项新的任务:针对不同语言的演讲者进行语音对话翻译,构建 SpeechBSD 数据集并进行基线实验,探讨上下文的重要性,提出单语言上下文和双语言上下文两种方式,并使用 Whisper 和 mBART 等方法进行级联语音翻译实验,结 - 计算分析悬疑:检测危险情况
本文介绍了一种注释危险情境的文本语料库,研究了悬疑小说中利用危险情境建立悬疑的方法,并进行了自动检测实验。同时发现,描述危险和恐惧的文本内容往往在很大程度上依赖于上下文。
- ACLCOLA:从因果推断的角度对上下文共识进行因果推理
本文提出了一种新的任务,即在事件序列(即上下文)中检测常识因果推论,称为上下文常识因果推理,并设计了一个零 - shot 框架:COLA(上下文常识因果关系推理器)来解决任务;实验结果表明,COLA 可以比基线更准确地检测常识因果关系。
- SegGPT 遇见共同显著场景
本文将 SegGPT 应用于共显目标检测,结果发现其在面临组内上下文差异时的性能存在挑战。
- DAMO-NLP 在 SemEval-2023 任务 2 中:用于多语言命名实体识别的统一检索增强系统
本文主要介绍了一个针对多语种细粒度命名实体识别的统一检索增强系统(U-RaNER),通过整合基于实体的 Wikidata 知识库来增强检索上下文的范围,探索各种搜索策略,提高检索知识的质量。研究团队 - DAMO-NLP 在 MultiCo - SIGIR关系抽取的连续理由提取:合理思考所见
本文提出了一种新的关系抽取框架 RE2,通过运用连续性和稀疏性因素来获取有关联且连贯的理由,从而解决了保留相关内容和移除噪声段落的难题。