- STBench: 大型语言模型在时空分析中的能力评估
该论文通过评估大型语言模型的时空数据理解能力,将其能力分解为知识理解、时空推理、准确计算和下游应用四个维度,并通过构建基准数据集 STBench 以及对 13 个语言模型的评估实验,揭示现有语言模型在知识理解和时空推理任务上表现出色,且通过 - PAFT:一种用于有效的 LLM 微调的并行训练范式
利用新的并行训练范式,这篇论文介绍了 PAFT,它独立对大语言模型进行 SFT 和偏好对齐,并通过参数融合将它们合并成一个用于下游应用的最终模型,提高了模型的性能。
- 磁共振图像的切片间超分辨率:预训练和自监督微调
提出了一种自监督超分辨率 MR 图像的方法,通过预训练和微调模型,实现高质量的图像重建,可应用于临床医学领域。
- 预训练的 Transformer 揭示人类移动数据中有意义的模式
基于国家级无标签人类流动数据进行事先训练的转换器能够通过微调形成对目标地理区域及其相应流动模式的深入理解,我们的预先训练嵌入在涵盖与人类流动直接和间接相关的广泛概念方面表现出良好性能,包括地理位置、距离、行政区划和土地覆盖等,通过大量实证分 - 应用内在去偏方法于下游任务:机器翻译的挑战与考虑
通过测量内在消除偏见的方法对神经机器翻译模型的外在偏见的影响,我们发现选择消除偏见的嵌入、词和子词符号的不匹配以及对不同目标语言的影响是影响下游性能和消除偏见成功的三个挑战和不匹配。
- 主张验证的最小证据组识别
在本文中,我们正式定义并研究了用于声明验证的最小证据组(MEGs)的识别问题,提出的方法在 WiCE 和 SciFact 数据集上相对于 LLM prompting 分别取得了 18.4% 和 34.8% 的绝对改进,并展示了 MEGs 在 - 跨语料库评估中的 HunFlair2 命名实体识别和规范化工具
通过对 28 种已发布系统的调查,我们在三个公开可用的语料库上深入分析了五种不同实体类型的性能比较,发现 BTM 工具在异构数据集上的性能明显低于同质数据集中的结果,表明在野外应用中 BTM 工具的性能会下降,需要进一步的研究以增强其稳定性 - 当数据流分析遇上大型语言模型
LLMDFA 是一个强大的代码分析技术,通过分析程序值之间的依赖关系,提供代码优化、程序理解和错误检测的支持。该研究介绍了一种无需编译基础设施的 LLM 驱动数据流分析框架 (LLMDFA),它能够自动合成下游应用程序并在解决数据流相关错误 - 野外的 RGBD 物体:从 RGB-D 视频中扩展现实世界的 3D 物体学习
我们介绍了一个名为 WildRGB-D 的新型 RGB-D 物体数据集,该数据集以自然环境中的实际采集为基础,与其他数据集相比,它的直接深度采集使得 3D 标注和下游应用更加准确和广泛。
- 基于事件的稀疏事件补全的扩散 - 细化方法
通过基于扩散的生成模型以及维护原始数据的时间分辨率等方法,我们提出了一种创新的事件序列补全方法,发掘事件相机的全部潜力,并生成高质量的密集事件,从而有利于目标分类和强度帧重建。
- Cappy: 用小型评分器提高大规模多任务语言模型的性能
借助仅有 3.6 亿参数的预训练小型评分器 Cappy,无需对大规模语言模型进行微调或访问其参数,既能独立进行多种分类任务,也能提升大规模语言模型的性能和效率,对复杂任务具有较大的提升空间,并且可以与其他语言模型适应方法协同工作,进一步提高 - EMNLP通过信息瓶颈原理进行文本表示精简
为了使模型更加易用,我们提出了一种基于信息瓶颈的知识蒸馏方法 IBKD,通过最大化教师模型和学生模型的最终表示之间的互信息,并减少学生模型表示和输入数据之间的互信息,以保留重要的学习信息并避免过拟合的风险,从而有效地在文本表示和下游任务中应 - JPAVE: 一种基于生成和分类的联合产品属性预测和价值提取模型
我们提出了一个多任务学习模型 JPAVE,通过值的生成 / 分类和属性预测来预测文本中的值,解决了数据差异问题和零样本能力的限制。
- EMNLP提升大型语言模型的数据生成能力
本文提出了一种统一的数据创建流程,只需一个格式示例,适用于包括传统上问题较多的任务在内的广泛范围,通过实验证明使用指令跟随型大型语言模型创建的数据比使用人工标注的数据在分布外评估上表现更好(高达 17.5%),同时在分布内任务上保持可比较的 - 语义处理技术综述
本综述分析了语义处理的五个任务:词义消歧、指代消解、命名实体识别、概念提取和主观性检测,并研究了相关的理论研究、先进方法和下游应用。同时,我们还对不同的语义处理技术进行了比较,并总结了它们的技术趋势、应用趋势和未来方向。
- 大规模扩散材料生成
本研究提出了一个基于 UniMat 的晶体结构生成方法,通过训练扩散概率模型,能够高度还原大规模和复杂化学系统的晶体结构,并且在评估指标上胜过之前基于图结构的方法,同时提出了针对材料的新评估指标,并展示了条件生成在大规模晶体数据集上的可扩展 - MotionDirector: 文本到视频扩散模型的动作定制
通过引入双路径的 LoRAs 架构和一种新颖的去除外观影响的时间损失函数,作者提出了 MotionDirector 的方法,可以生成具有不同外观的自定义运动的视频,并支持混合不同视频的外观和运动以及给单个图像添加自定义动作。
- ACL半监督式对比学习中的新闻话语建模
通过利用新闻报道的独特结构特征,我们提出了一种被称为 Intra-document Contrastive Learning with Distillation (ICLD) 的新方法,用于处理新闻话语分析任务,并首次在该任务范式中应用了半 - Transformer 的结构自监督目标
本文重点研究如何通过使用无监督原始数据来改善自然语言模型的预训练,使其更高效并与下游应用相匹配。在第一部分中,我们介绍了三种替代 BERT 的 Masked Language Modeling(MLM)的预训练目标,分别为 Random T - 对低资源语言形态学标注的分类丧失
在这篇论文中,我们提出了使用一种基于分类的损失函数,利用形态信息使得形态标注在没有足够数据的情况下更加有效。我们发现,虽然这种损失函数在单标签预测准确度上不如标准损失函数,但在考虑前 n 个预测标签时产生更好的预测结果。我们认为这个特性使得