我们提出了一种基于解释驱动的集群选择的解释可调的约束聚类方法,该方法能够生成高质量的且可解释的聚类,其中聚类结果考虑了特征的覆盖率和区分度,并能够整合领域专家知识和用户约束。
Mar, 2024
本研究提出了一种自动发现任务 D5,可以在自然语言处理领域中使用,旨在解决大规模文本挖掘的效率问题,利用语言模型自动发现大规模文献库中的相关性和差异,并通过 OpenD5 数据集验证了该方法的有效性,可在商业、社会科学、人文科学、机器学习和健康领域应用。
Feb, 2023
本文提出了一种新型的复杂数据聚类算法,利用符号数据进行言语解释,通过最大化模块之间的一致性产生更好的聚类效果和高质量的聚类级别解释,实验结果表明,该模型在聚类性能方面优于竞争对手,并提供高质量的聚类级别解释。
May, 2021
研究使用自然语言来训练从语言中零样本学习结构化数据的分类器,并提出一个评估标准 CLUES,其包含 36 个现实世界和 144 个合成分类任务的自然语言监督。为实现此目的,开发了 ExEnt,一种基于蕴含的模型,通过学习解释来学习分类器。
Apr, 2022
提出基于神经网络和聚类模型的可解释 AI 框架,能够对数据的簇分配进行高效和可靠的解释,并且从分析数据和表示中提取新的见解。
Jun, 2019
本文介绍了如何直接优化指标来训练生成逐句解释的模型,其诊断属性包括忠实度、数据一致性和置信度指示,并在三种复杂推理任务上显著提高了解释质量、与人类理性的一致性和下游任务表现。
Sep, 2021
通过使用知识图谱方法和协同过滤技术,我们的研究提出了一种可以生成客观描述的推荐解释的方法,该方法结合了用户购买历史和物品特征,为用户提供与其偏好相匹配的个性化解释,实验结果表明该方法在自然语言可解释推荐方面优于现有的最新模型。
Aug, 2023
本文介绍了一种名为 CorEx 的主题建模方法,这种方法不需要假设潜在的生成模型,而是通过信息理论框架学习最大信息的主题。该框架可以自然地推广到具有层次结构和半监督扩展的情况,通过锚词,可以灵活地将单词级的领域知识纳入 CorEx,从而最小限度地促进主题的可分离性和表征。通过多种数据集、指标和实验,我们证明了 CorEx 产生的主题与无监督和半监督变体的 LDA 所产生的主题在质量上是可比较的。
Nov, 2016
本文提出了一种可解释自然语言理解的框架,使用一小部分人类注释的解释进行训练,并采用变分 EM 方法进行优化,同时提出了基于解释的自训练方法,在两个自然语言理解任务上进行实验,证明了该框架不仅可以在监督和半监督设置下进行有效的预测,还可以生成良好的自然语言解释。
Oct, 2020
该研究使用证据权值框架介绍和评估可解释性目标识别模型,提供人性化的解释并研究了不同场景下其表现,并通过人类行为研究和 Sokoban 游戏研究证明该模型可以成功生成人类模拟的解释,并调查观察者在接受解释后对任务预测、解释满意度和信任的理解。
Mar, 2023