- HuSpaCy 中的混合还原
本文提出了一种混合词形还原器,使用神经模型、字典和手工规则的混合架构,在广泛使用的匈牙利语数据集上获得了实验结果,并发表了三种 HuSpaCy 模型。
- 基于标注启发的隐式语篇关系分类及辅助语篇连词生成
研究了如何在缺乏话语连词的情况下进行隐含话语关系分类,设计了一种神经网络模型,通过预测和生成连词来实现话语关系的分类。实验结果表明,在 PDTB 2.0,PDTB 3.0 和 PCC 三个数据集上,该模型明显优于其他基线模型,从而表明了该模 - 一种修改后的模型用于从语料库中检测主题并评估主题可理解性的新指标
本文提出了一种修改后的神经模型以检测语料库中主题,并提出了一种新的度量标准来评估检测到的主题。这个新模型建立在嵌入式主题模型的基础上,加入了一些修改,例如文档聚类。数值实验表明,新模型表现良好,而且无论文档的长度如何都表现良好。可以更有效地 - SpellMapper:基于 n-gram 映射的 ASR 自定义非自回归神经拼写检查器
使用新颖的基于拼写错误 n-gram 映射的候选检索算法和 BERT 架构的非自回归神经模型,相较于基线 ASR 系统,在口语化维基百科上的实验显示,字错误率提高了 21.4%。
- ACLPento-DIARef:指代表达生成增量学习算法的诊断数据集
本文介绍了一种基于符号算法和谈判理论的人工智能推理模型,评估了它对于语言任务的处理能力,结果显示此模型表现良好,并提出了更好的模型设计支撑。
- ACL OCL 语料库:推动计算语言学中的开放科学
ACL OCL 是一个学术语料库,包含了 74k 篇计算语言学领域的科学论文,210k 个提取的图形,以及针对所有 OCL 论文的主题。该研究观察到语法标注、分块和解析主题明显下降,而自然语言生成主题再次兴盛。
- U-TILISE:光学卫星时间序列云去除的序列到序列模型
利用表示学习的思路,发展了 U-TILISE,一种高效的神经模型,能够隐式地捕捉光谱强度的时空模式,并通过训练将云层遮掩的输入序列映射为无云的输出序列。实验结果表明,与标准插值基准相比,在之前看到的位置,PSNR 增加了 1.8 dB,在未 - ICLRSLTUNET:一种简单的统一手语翻译模型
为了解决手语翻译领域(SLT)中数据不足和模态差异问题,本文提出了一种简单的统一神经模型 SLTUNET,并采用跨模态表示共享的策略,使其支持多个 SLT 相关任务的联合建模,其中包括手语翻译,手势码翻译和手语转文本翻译等。实验结果表明,S - CVPR基于散焦线索的全自监督深度估计
提出了一种基于稀疏焦距堆栈的自监督 DFD 框架,无需深度或 AIF 图像基础知识,利用神经模型预测深度和 AIF 图像,并利用光学模型验证和精化预测。
- 低资源编程语言伪代码生成的知识转移
该论文提出通过迭代回译的方法,借助已有的高资源编程语言(C++)的代码 - 伪代码数据,将训练好的 C++-to - 伪代码模型迁移到没有对应数据的遗留编程语言(C)上,从而实现对其代码的自动描述,取得了 23.27% 的成功率提升。
- 序列化、低延迟、事件驱动光流学习的对比最大化控制
研究了一种基于事件摄像机的光流无监督学习算法,可以用于实现高频推理的低延迟和低功耗的解决方案,并且在多个数据集上得到了验证。
- 知识图谱推理的神经组合规则学习
本文提出了一种端到端的神经模型 - NCRL,用于学习组合逻辑规则,该模型能够检测到规则主体的最佳组合结构以及在小组成的基础上预测规则的结果,实验证明其可扩展,高效,并在大规模知识图谱上的知识图谱填充等任务中取得了最先进的表现。
- kNN-BOX: 最近邻生成的统一框架
本论文提出了一种新的生成范式,即使用 token-level 符号数据存储器来扩充基础神经模型,已在机器翻译中取得了有优异的成果。我们介绍了一个名为 kNN-BOX 的统一框架,该框架将数据存储增强方法分解为三个模块,并提供了七种流行的 k - 通过对抗信息校准理性化预测
在这项工作中,我们提出了一种通过信息校准和流畅关联提取语义信息的方法,成功地提取了辩解原因,并在情感分析、仇恨言论识别和法律方面的任务中证明了其有效性。
- 使用 Fine Tuned GPT-2 模型自动生成德语戏剧文本
本文提出了一种自动生成德语戏剧文本的方法,包括应用 GPT-2 模型生成情节场景大纲,以及从大纲中生成场景,该方法在自动量化评估上表现良好,但手动定性分析揭示出生成文本的质量较差,可能由于数据集或训练输入的质量。
- 利用 RoBERTa 和 GPT-2 生成现代法语诗歌
本研究提出了一种新颖的神经模型,用于生成现代法语诗歌,该模型由两个预训练的神经模型组成,经过微调以进行诗歌生成任务。模型的编码器是基于 RoBERTa 的,解码器基于 GPT-2,这样模型可以受益于 RoBERTa 较好的自然语言理解性能和 - 利用神经模型中的连贯性和句法特征进行自动作文评分的潜力开发
本文研究了自动论文评分中预测整体得分的多种方法,包括预训练的神经网络模型、连贯性模型和混合模型。提出了一种新颖的方法,利用基于 prompt-learning NSP 的论文连贯性特征提取和表示,通过采用句法特征密集嵌入增强 BERT-ba - EMNLP探讨社交媒体用户主观立场
通过使用 Attention 机制和考虑个人过去的活动,提出了一种神经模型 —— Subjective Ground Attention,可以从社交媒体上的文本中学习个体的主观情感,并解释他们对他人社交情境的判断,以达到更好地理解人类心理认 - DiaASQ:一项对话基于方面的情感四元组分析基准测试
本文介绍了一项新任务 DiaASQ,旨在探索对话中目标 - 方面 - 意见 - 情感的细粒度情感分析,并提出了一个神经模型来进行四元组预测,以更好地跨话语提取四元组,以桥接细粒度情感分析和对话意见挖掘。
- 运动策略网络
该研究提出了一种名为 M$\pi$Nets 的端到端神经模型,用于从单个深度摄像头观察中生成碰撞自由、平稳的运动,经过在超过 500,000 个环境中进行的超过 3 百万次运动规划实验的训练,证明 M$\pi$Nets 比以前的神经规划器快