使用贝叶斯校正和文本分类技术估算气候适应融资收报情况
介绍了 CLIMATE-FEVER 数据集,旨在促进和鼓励改进为气候特定声明检索证据支持的算法,应对语言理解挑战,并帮助减轻虚假信息对气候变化的影响。
Dec, 2020
通过调查ML方法在17个领域中被广泛采用的文献,我们系统地调查了ML方法在科学研究中的可重复性问题,并发现数据泄漏确实是一个普遍存在的问题,并提出了模型信息表来报告基于ML模型的科学主张,以便在发布前发现泄漏情况,并进行了模拟实验,发现所有声称复杂的ML模型在文献中都未能复制,并且与几十年前的Logistic回归模型相比,复杂的ML模型并没有表现出更好的效果。
Jul, 2022
本文提出了Climate Change Benchmark(ClimaBench),这是一个用于系统评估CC NLU任务模型性能的基准收集现有不同数据集的基准。我们从公开可用的环境披露中筛选了两个大规模的标记文本分类和问答数据集,并提供了数据分析。
Jan, 2023
本研究采用零样本文本分类技术,对公开认可Task Force for Climate-related Financial Disclosures(TCFD)建议的银行报告中披露的气候相关信息进行了分析,发现TCFD建议推出后,企业对气候相关信息的披露呈现出明显增长趋势,但不同类型的信息披露程度存在显著差异,因此TCFD建议需要进一步完善。这些发现对气候相关信息披露框架的设计提供了重要启示。
Feb, 2023
本文介绍了一种新方法,通过利用领域专家的知识来增强Large Language Models(LLMs)以自动化分析公司可持续性报告,并将其与《气候相关金融信息披露任务组》(TCFD)的建议进行基准比较。
Jun, 2023
气候变化的误导信息是解决人类面临的最严重威胁之一的关键障碍,本文研究了大型语言模型在气候信息方面的事实准确性。通过使用真假标记的问答数据对语言模型进行微调和评估,比较了开源模型,并评估它们对气候变化问题生成真实回答的能力。我们还研究了故意注入虚假气候信息的模型的可检测性,并发现这种注入可能不会影响模型在其他领域中的回答准确性。此外,我们比较了取消学习算法、微调和检索增强生成(RAG)在事实上对语言模型在气候变化主题上的基础的有效性。我们的评估揭示了取消学习算法对于微妙的概念性主张可能是有效的,尽管之前的研究发现它们在隐私情境下无效。这些见解旨在指导更具事实可靠性的语言模型的发展,并强调了保护语言模型免受误导攻击的额外工作的必要性。
May, 2024
气候变化的错误信息会带来许多负面影响,因此需要采取纠正措施。本研究开发了大型语言模型,利用事实-谬误-谬论-事实的结构,通过结构化提示生成可靠的辟谣信息,以解决错误信息问题。
Jul, 2024
我们研究了使用GPT-40,一种先进的大型语言模型(LLM),进行证据综述和系统评估任务的潜力。我们评估了GPT-40在全球适应性映射计划(GAMI)数据集中执行这些任务的有效性,结果表明在低专业的任务中,如地理位置识别,GPT-40可以达到很高的准确性,然而在中级和高级专业任务中,如利益相关方识别和适应性响应深度评估,其性能则不可靠。这些发现促进了设计评估工作流程的需求,既利用了GPT-40等模型的优点,也提供了改进它们在这些任务上表现的细化方法。
Jul, 2024
本研究提出了一种提取、索引和可视化“气候变化叙事”的方法,解决了气候变化相关事件因果关系故事的分析问题。通过BERT和因果提取,研究揭示了气候变化政策讨论对企业行为和经济动态的影响,以及自然灾害对经济活动的新挑战,预计方法将广泛应用于多种经济主题分析。
Aug, 2024
本研究解决了全球气候模型输出中由于未观察混淆因素导致的系统偏差问题。我们提出了一种新颖的偏差校正方法,利用气候模型和观测数据构建因子模型,以捕捉多因子潜在混淆因素。这种方法显著提高了降水输出的准确性,提供了一种稳健且理论基础扎实的气候模型偏差校正方案。
Aug, 2024