- EMNLP探索问答模型的分布稳健性
在问答模型的分布稳健性中,我们进行了一项大规模的实证评估,研究了超过 350 个模型和 16 个问答数据集的情况,发现在很多情况下,模型的变化并不影响稳健性,而在分布内性能单独决定着分布外的性能,并且我们的发现表明,零样本和上下文学习方法比 - 大型语言模型用于多标签宣传检测
本研究通过提出的五种模型集成方法,针对包含 21 种宣传技巧的多标签文本分类任务有效地识别互联网宣传。最终在 WANLP 2022 共享任务中获得 59.73% 的微型 F1 分数,并进一步提出了未来的研究方向。
- 艺术实践中人工智能可持续性评估
艺术家们越来越多地使用人工智能技术(创意 Ai),并将他们的作品展出于知名艺术场馆。然而,研究社区也认识到使用 Ai 技术涉及可持续性问题,如能源消耗和模型的增大和复杂化等。本研究通过目前正在进行的实地研究提供对可持续性评估的各种限制的见解 - MobileViTv3:具备本地、全局和输入特征的简单有效融合的移动友好视觉变换器
MobileViT 使用卷积神经网络和视觉 transformer 结合,提出了 MobileViTv3-block 来处理模型缩放以及简化学习任务问题,其在 ImageNet-1k、ADE20K、COCO 和 PascalVOC2012 - VoxCeleb 2022 发言人识别挑战中的 ReturnZero 系统
本文介绍了团队 RTZR VoxCeleb 在闭合数据集、发言人验证 Track1 方面的顶尖成果,采用了 7 个模型,包含 3 种不同类型的模型结构,并注重训练模型来学习额外时域的信息。通过正确的评估过程,使用自适应对称规范化(AS-No - CVPRRF-Next:卷积神经网络高效感受野搜索
本研究提出了一种全局到本地的搜索方案,探索更好的感受野组合以提高任务性能,通过将感受野搜索插入不同的模型中,如对象检测、实例分割等,提高了模型性能,源代码公开可用。
- 深度学习模型及其内部表示的对称性
对于机器学习模型的对称性和内部数据表示之间的关联,我们提出了本文中阐述的模型内联群的概念,通过相似实验,我们将内联群与具有相同架构的模型之间的隐藏状态相似性联系起来,从而更好地理解体系结构如何影响学习和预测过程。最后,我们猜测对于 ReLU - MM训练高效的卷积神经网络:优化神经网络的基本组成部分,创造更轻、更快、更强韧的模型
本研究旨在回顾各种最先进技术,探讨如何通过序列减少训练参数和使用像全局均值池化、深度卷积和挤压、模糊化池等技术进行分阶段训练来构建高效的深度卷积网络,并成功实现了在 MNIST 数据集上仅使用 1500 个参数达到 99.2% 的高准确度, - 可解释人工智能是否与模型复杂度的竞争有关?
随着模型的体积和复杂性不断增长,解释智能系统的行为将变得越来越具有挑战性。庞大的模型不一定需要对每一个预测进行解释,并且解释可能不再客观或中立。这些模型的功能主义理解可能比我们想象的要少,但是,即使模型和解释都不正确,模型也可以是有用的。解 - 人工智能与人类交互中的信任:模型、度量和方法的概览
这篇论文针对机器人、虚拟角色、智能车辆、决策帮助等各类 AI 系统中关于信任模型的应用和测量方法缺乏标准化的现状进行了概述和分析。作者提出了一些系统的研究目标,并为当前文献汇总的优点和缺点提供了解决方案和研究议程。
- 多跳问答与生成综述
本文提出了一个多跳问题回答(Multi-Hop QA)的具体与形式化定义,并对现有的 Multi-Hop QA 框架进行了组织和总结,同时介绍了创建多跳问题回答数据集的最佳方法,以系统全面地介绍这个有趣而具有挑战性的任务。
- ACL大规模多语言情感分类器评估
研究评估 11 种模型在 27 种语言中进行情感分析任务。
- 论法律判决预测:数据集、评估指标、模型与挑战
该论文通过分析 31 个 LJP 数据集、总结 14 个数据评估指标、回顾 12 个预训练模型以及挑选 8 个代表性数据集呈现状态,以帮助读者了解 LJP 的现状并促进 NLP 研究和法律专业人士的进一步合作。
- IISERB 参加 SemEval 2022 第 6 个任务:一种用于识别英语讽刺意图的深度学习框架
本研究介绍了 'IISERBBrains' 小组在 SemEval 2022 比赛中采用的系统架构和模型,并在三个子任务中获得了相应的排名,同时报告了金标签评估数据发布后进行的实验所获得的其他模型和结果。
- 机器学习中的可解释性:教育视角
本研究提供了一个关于如何结构化学习过程以更好地向机器学习领域的学生和研究人员传授知识的教学观点,包括何时以及如何实现各种可解释性技术以及如何解释其结果。同时,讨论了利用各种不透明和透明的机器学习模型,以及何时利用特定的可解释性技术和用于可解 - 训练可复现的深度学习模型
本文提出了一种系统的方法来训练可重复的深度学习模型,该方法包括评估标准,统一的框架和可重复性指南,能够在不同领域成功复现多个深度学习模型。
- ICLR多实例学习的模型无关可解释性
本文研究了多示例学习(MIL)中模型的可解释性,并提出了几种模型无关的方法来满足这些要求,在多个数据集上与现有的基于模型的 MIL 模型进行比较,并取得了高达 30% 的解释性准确性的提高。同时研究了这些方法识别实例间相互作用的能力和扩展到 - ACLLexGLUE: 英文法律语言理解基准数据集
介绍 Legal General Language Understanding Evaluation(LexGLUE)基准测试和对几个通用和以法律为导向的模型的评估和分析,证明后者在多个任务中始终提供性能改进。
- EMNLPSummerTime: 面向非专家的文本摘要工具包
SummerTime 是一个用于文本摘要的完整工具包,包括各种模型,数据集和评估指标,可与 NLP 研究人员设计的库集成,并提供易于使用的 API,以定位和搜索自己数据中最佳模型,并可视化不同,同时提供解释以帮助用户了解模型的行为并选择最适 - 集成深度学习:综述
本文综述了最新的深度集成学习模型的分类和应用,并指出了未来研究的方向。