面向结构化数据的函数透明性:博弈论方法
本文概述了当今为实现 “结构透明” 而进行的研究的前沿,提供了一个概括性的理论框架和词汇,包括表征基本组件 - 输入隐私、输出隐私、输入验证、输出验证和流程治理 - 以及复制、捆绑和递归监督等基本问题,并论证了最近随着 “隐私增强技术” 的发展,如安全计算和联邦学习,可以在许多领域显着减少潜在的使用 - 滥用的权衡。本文最后给出了结构透明的几个应用示例,包括开放式研究、能源管理和信用评分系统,并讨论了这些工具被滥用的风险。
Dec, 2020
使用自监督预训练视觉转换器的特征提取能力,我们提出了一种用于体绘制的传递函数定义方法。用户只需在切片查看器中选择感兴趣的结构,我们的方法将基于神经网络提取的高级特征自动选择类似结构。与之前的基于学习的传递函数方法不同,我们的方法不需要模型训练,并且可以进行快速推理,从而实现对体数据的交互式探索。通过与现有的基于学习的方法在注释和计算时间以及分割准确度方面的比较,我们展示了我们方法的交互性和有效性。
Sep, 2023
本文提出了 “描述性解释” 和 “说服性解释” 的区别,讨论了功能解释与认知功能和用户偏好可能相关的推理,并提出了两个研究方向来消除认知功能和解释模型之间的歧义,保持准确性和可解释性之间的权衡控制。
Nov, 2017
Syft 0.5 是一个通用的框架,结合了一组核心隐私增强技术,可实现一组通用的结构化透明度系统。我们通过设计和实现一种新颖的隐私保护推理信息流来演示该框架,其中我们通过拆分神经网络传递同态加密激活信号进行推理。在提供核心结构透明度原则方面,我们评估了我们提出的流程。
Apr, 2021
使用基于神经语言模型的概率度量直接建模公开透明度,证明这些度量与用户和专家对系统透明度的观点相关,并在一些真实的 NLP 系统描述文档中展示这些度量的用途,量化透明度、混淆和用户感知之间的关系。
Jan, 2021
通过实验发现,语言模型在处理上下文无关语言时性能良好,但对上下文相关性差的语言的语义关系解释能力较差,本文研究了自然语言中的 “指代不透明” 现象,证明了当前的语言模型不能很好地表示自然语言的语义。
Oct, 2022
本文研究了算法的透明度对算法设计者的成本的影响,进而探究了用户的策略意图对透明机器学习算法设计和性能的影响,通过建模用户和设计者之间的零和博弈,量化了透明性带来的成本,设定成为透明代价。
Oct, 2016
我们提出了一种使用人工制造的类似语言的数据来训练、评估和解释神经语言模型的设置。使用大规模概率语法(基于状态拆分的 PCFGs)生成数据,该语法源自大型自然语言语料库,但也可完全控制生成过程。通过比较神经语言建模架构和训练目标对可获取困惑度下界的逼近程度的差异,我们得出了显著的结果。我们的方法还允许直接将学到的表示与底层源中的符号规则进行比较,并尝试了各种用于解释模型行为和学习动态的技术。通过访问底层真实源,我们的结果显示出不同类别的单词在学习动态方面存在明显的差异和结果。
Oct, 2023