- Textwash -- 自动开源的文本匿名化
本文介绍了一种名为 Textwash 的开源文本匿名化软件,并使用 TILD 标准对其进行了实证评估,结果表明其在实体识别模型方面的表现类似于最先进的模型,且信息损失很小,匿名比例在 1.01%-2.01% 之间。
- 计算结构因果模型的最优抽象
本篇论文主要研究在不同抽象层次上使用因果模型的特性,旨在学习到新的抽象模型,研究者通过定义形式化学习问题,并采用优化和信息损失函数来阐明抽象过程。
- ICML重新审视集成学习中的 Fano 不等式
本研究提出了一种基于 Fano 不等式的合奏学习理论,用一套扎实的度量体系来评估一个给定的合奏系统,并通过实验验证和证明了这种理论的有效性,该理论将推动合奏学习的理论认识,并为系统设计提供洞见。
- CVPR减少 Transformer 多元图像修复中的信息丢失
提出了一种新的基于 Transformer 的框架 PUT,其中包括自动编码器 P-VQVAE 和无量化 Transformer(UQ-Transformer),以尽可能保留输入信息并消除量化所引起的信息丢失。
- CVPRBlind2Unblind: 自监督图像去噪与可见盲点
该论文提出了一个名为 Blind2Unblind 的简单而有效的方法来克服盲点驱动去噪方法中的信息丢失问题,该方法采用全局感知掩模映射器和可重视损失来提高性能,实验表明该方法在合成和真实世界数据集上优于以前的工作。
- EMNLP神经机器翻译中用于脚本间模型转移的罗马化
研究发现,在跨语言转移方面,罗马化输入法虽存在一定的信息损失,但可以在相关语言间改善字母表不同的情况下的翻译质量。在目标端实现罗马输入法并配以简单的反罗马化模型能提高翻译的成功率。
- ECCV加强轴向精修网络用于单目三维物体检测
通过强化学习优化的 Reinforced Axial Refinement Network (RAR-Net) 可以作为后处理阶段自由整合到现有的单目 3D 检测方法中,提高了 KITTI 数据集的性能,并且有小的额外计算成本。
- ECCV重新思考瓶颈结构以实现高效的移动网络设计
本文介绍了一种新的 bottleneck design,叫做 sandglass block,它通过在更高的维度上执行 identity mapping 和空间变换来减轻信息丢失和梯度混淆的风险,并证明了它对于移动网络的性能更有益。
- EMNLP通过探索知识图谱进行实体描述生成
本文介绍了一个大规模、有挑战性的数据集,以促进知识图谱到文本分类的实际场景研究,同时提出了一种多图结构和聚合方法,以更全面地代表原始图信息,并成功解决信息丢失和参数爆炸的问题。
- 信息几何集嵌入 (IGSE): 从集合到概率分布
介绍了一种抽象的学习问题,称为 “集合嵌入”,其目标是将集合映射到概率分布,以减少信息损失;演示了关于集合并、交运算与概率分布的相应内插关系,以及在玩具集合嵌入示例上的初步实验结果。
- 带门控残差的平衡二值神经网络
本文介绍了一种基于平衡二元神经网络和门控残差的二元神经网络方法 (BBG),针对其信息丢失问题,提出使用权重平衡二值化和门控残差结构来提高作用量的信息熵和防止信息丢失。经实验证明,BBG 方法在各种网络架构中表现出优异的性能,包括在分类和检 - 提高可操作数据的信息
本文研究了基于数据的决策中出现的操纵问题,提出了减少数据使用来减轻信息损失并提高分配精度的方法。
- AAAI一种层次分解 - 重构框架,用于神经元剪枝以实现准确的轻量级网络
本文提出了一种新的神经元修剪框架 —— 分层分解重构框架(LDRF),它能够在嵌入空间中恢复每一层的输出信息,并传播至后续被修剪的层,保留有用信息,相比现有方法在 ILSVRC-12 基准测试中能够实现 5.13-3 倍的速度提升,并且只有 - C3:集中综合卷积及其在语义分割中的应用
文章提出一种新的深度学习网络结构 --- Concentrated-Comprehensive Convolution (C3) block,该结构应用了不对称卷积来弥补扩张卷积的信息丢失,并成功应用于各种分割框架中,保持原有精度的同时降低 - 利用过滤器相关性进行深度模型压缩
本文提出了一种基于滤波器相关性的深度卷积神经网络模型压缩方法,它通过优化使得特定相关滤波器对尽可能相关,然后成功压缩 LeNet-5、VGG-16、ResNet-50、56 等模型,在压缩模型的同时维持了优秀的预测性能。
- 使用多重量化语句进行自然语言推理神经模型的压力测试
本文提出了一种生成数据集的方法,用于生成特定的自然语言推理例子,从而更精确地表征语义复杂性,并指出仅强制词汇对齐的模型可以避免关键信息的损失。
- i-RevNet:深度可逆网络
通过 i-RevNet 网络的可逆性证明了深度卷积网络并不需要通过逐步丢弃输入信息来学习代表信息以获得泛化能力,并通过线性插值对模型学习到的信息进行了解释。