关键词binary classification tasks
搜索结果 - 8
- AnyLoss:将分类指标转化为损失函数
我们提出了一种通用的方法,将任何基于混淆矩阵的度量转化为可用于优化过程的损失函数,并通过对其导数的建议证明了其可微分性,我们在多个数据集上进行了广泛的实验证明了该方法在处理不平衡数据集方面的杰出成就,并且与多个基准模型相比的竞争学习速度凸显 - 二元分类性能中的内在数据约束和上限
数据组织结构对机器学习算法的有效性有巨大影响,特别是对于二元分类任务。本研究提供了一个理论框架,表明给定数据集上二元分类器的最大潜力主要受到数据固有特性的限制。通过理论推理和实证检验,我们得出两个主要结论:首先,我们展示了在实际数据集上二元 - 基于基准数据集的大型语言模型路由
通过重新利用基准数据集来学习 “路由器” 模型,我们解决了在一系列模型中为新任务选择最佳的大型语言模型的挑战,并展示了学习模型路由器在不同基准数据集上的效用和局限性,从而在所有任务中持续提高性能。
- 少样本检测一切
本文介绍了 DE-ViT,这是一个使用纯视觉 DINOv2 骨干网络的开放集对象检测器,通过示例图像而不是语言来学习新的类别。为了提高检测能力,我们将多类别分类任务转换为二分类任务,并提出了一种新的区域传播技术来进行定位。在 COCO 和 - FIRE 2021: 乌尔都语中滥用和威胁语言检测概述
本篇研究针对社交媒体平台上的辱骂和威胁性言论检测问题,提出了两个任务,并通过 Urdu 语言的二分类数据集进行实验,结果表明基于 m-Bert 的 Transformer 模型的性能最优。
- CVPR固有可解释 Transformer 的因果性:CAT-XPLAIN
本文针对黑匣子神经网络的后续解释方法中仍然存在的困境,提出了在设计神经网络时进行内在可解释性的研究。我们采用一个最近提出的基于实例的因果解释方法,使现有的 Transformer 架构具有内在解释能力。我们在 MNIST、FMNIST 和 - 使用自然语言描述文本分布之间的差异
本文介绍了如何使用 GPT-3 来自动生成更容易描述两个文本分布差异的语言假设,并介绍了该方法在处理二分类任务、调试数据集缺陷、总结未知任务和标记文本聚类方面的应用,最终得到了较好的效果。
- 处理意见不合:超越主观标注中的多数派投票
通过研究多注释者模型的功效,我们的多任务方法将预测每个注释者的判断作为单独的子任务并共享任务的共同学习表示来解决注释者间的不一致性问题,并且表明这种方法比在训练之前聚合标签的方法在七个不同的二元分类任务中产生了相同或更好的性能。此外,在我们