透镜星系在 z=1-2 时期低质量端质量 - 金属丰度关系的限制
通过评估大型语言模型对原始和扰动数据集上的摘要性能,我们使用关联改写方法来测量大型语言模型作为摘要器的稳健性,并发现大型语言模型对于扰动文章的摘要结果不一致,需要进一步改进。
Jun, 2024
本文通过三种不同的方案对低资源情况下关系抽取系统进行了全面研究,并创建了包含 8 个 RE 数据集的基准,示范了不同的方法与结合的影响,结果表明虽然基于提示的调整有助于低资源 RE,但在从跨句子上下文中提取多个关系三元组时仍有很大改善潜力,数据增强与自我训练可以较好地充实现有基准,并可带来很多性能提升,然而自我训练并不能始终实现低资源关系抽取的进步。
Oct, 2022
本文提出了一种新的零样本学习方法 ——Semantically Aligned Bias Reducing (SABR) ZSL,旨在通过学习一个潜在空间来解决 hubness 问题,同时通过交叉验证和弱转移约束来减轻示例类别偏移问题,并在三个基准数据集上广泛实验证明,与现有的最先进算法相比,在传统和推广的 ZSL 设置下,性能显著提高了 1.5-9%或 2-14%。
Apr, 2019
联邦学习和大型语言模型的交汇为隐私保护自然语言处理开启了新时代,提出了一种将内存高效的零阶优化与联邦设置相结合的方法 FedMeZO,以加快收敛速度和减少 GPU 内存使用。
Feb, 2024
稀缺的标记数据对于关系抽取模型的发展和各种生物医学领域数据库的完成构成了障碍。本研究针对自然产物文献,探索了关系抽取模型在药物发现中的应用,并通过开放大型语言模型进行了几种方案的评估,显示精细调整合成摘要数据比原始噪声数据获得了显著改善。
Nov, 2023
本文提出了一种用于解决零样本学习中的 hubness 问题的新的损失函数,并在 ModelNet40、ModelNet10、McGill 和 SHREC2015 等数据集上进行了广泛的评估,建立了在 3D 情况下的零样本任务的最新成果。
Jul, 2019
本文研究了利用少量标记数据进行关系抽取的方法,为了更好地概括新关系,我们提出了利用全局关系图的方法,使用贝叶斯元学习的方法来有效地学习关系的原型向量的后验分布,并使用随机梯度 Langevin 动力学来优化原型向量的后验分布,整个框架能够有效且高效地进行端对端优化。实验表明,我们的方法在少样例和零样例场景下的效果均优于竞争基线。
Jul, 2020
本研究聚焦于使用大型语言模型作为无样本关系抽取器。通过分析现有关系抽取提示的不足之处,并引入诸如 CoT 的最新提示技术,我们提出了一种名为 SumAsk 的简单提示方法,通过使用大型语言模型将关系抽取输入转化为有效的问答格式。同时,我们在各种基准测试和设置上进行了广泛的实验,研究了大型语言模型在无样本关系抽取方面的能力,发现 SumAsk 方法在不同模型尺寸、基准测试和设置上都能显著提高大型语言模型的性能,在与无样本和完全监督方法相比具有一定竞争力甚至优越性能的同时,大型语言模型在提取重叠关系方面表现出了良好的性能,然而,不同的关系之间性能差异较大,大型语言模型相较于小型语言模型在处理挑战性的无适用项关系时表现出了有效性。
Oct, 2023
本篇论文主要研究如何使用最大边际相关性(MMR)结合深度学习方法以实现多文档摘要的 few-shot 或 zero-shot 应用,并在这种方法的基础上提出一个能够同时保证相关性和输出质量的新算法。
Nov, 2022