金融报告中的可解释风险分类
本文提出一种新方法来产生可信的反事实解释,探索金融科技领域语言模型对于敌对训练的规范化优势,实验结果表明,与现有的最先进技术和人类表现相比,该方法不仅提高了模型的准确性,而且根据人类试验,产生的反事实解释更加可信。
Oct, 2020
本文提出了一种支持决策者做出公正的借贷决策的框架,其中包含可解释的机器学习模型、可交互的可视化工具以及三种类型的解释。该框架通过提供全局与个性化的解释获得了 FICO 的认可奖。
Jun, 2021
构建自动系统 FinReport,基于财经新闻公告和多因子模型,用于帮助普通投资者收集信息、分析,并生成报告;包括新闻因子化模块、回报预测模块和风险评估模块,通过真实数据集的广泛实验,验证了其有效性和可解释性。
Mar, 2024
本研究通过基于 BERT 的分析,预测濒临破产的公司披露数据。我们使用 BERT 模型对 MD&A 披露进行情感分析,结果表明 BERT 在逻辑回归、k 最近邻分类器和线性核支持向量机的调整 R 平方方面优于基于词典和 Word2Vec 的预测方法。通过对企业披露数据(10-K)进行自学习和置信度过滤而非从头开始预训练 BERT 模型,我们实现了 91.56% 的准确率,并证明了域自适应过程对预测准确性的显著改进。
Dec, 2023
通过深度学习模型,分析加拿大金融规定文件数据集(SEDAR),预测交易量变化,探究金融市场行为,并发现模型能够在不需要显式训练的情况下,探测到重要信息的指示。
Mar, 2022
本文提出了一种方法,通过对黑匣子分类器的决策函数进行抽样来学习可解释的替代模型,从而获得全局解释。该方法提供了一种统一解决方案,以简单的分类器逼近非线性决策边界,同时保持原来的分类准确性。我们使用私人住宅抵押违约数据集作为示例,说明了这种方法确保预处理期间属性的可分解性的可行性。
Nov, 2018
本文提供了一种新颖的量化指标框架,用于解释分类器和回归模型的预测结果,旨在提高人工智能系统的透明度和可信度。应用公开数据集,展示了这些指标如何更全面地理解模型预测,并在决策者和利益相关者之间促进更好的沟通,从而增加人工智能系统的整体透明度和问责度。
Feb, 2023
研究开发了一种利用公司年度报告中的非结构化文本数据(包括审计报告和管理声明)的卷积循环神经网络模型,可用于公司困境预测,并发现该模型增强了困境预测表现,特别是对于大型公司。
Nov, 2018
本文提出了一种基于学习模糊加权规则的可解释连续变量预测新方法,采用符号和非符号混合方法和领域知识约束来实现透明可解释性,并在预测吸烟戒断行为干预结果研究中展示出比其他可解释方法更好的性能。
Aug, 2022