- 基于力控制的机器人在随机环境中的优化搜索策略
本文介绍了一种基于神经网络模型的机器人搜索策略自动优化方法,通过在大量虚拟环境中训练和少量真实环境测试进行反演,能够适应底层概率分布的时间变化特征,同时减少实际测试的数量,并在螺旋和探头搜索 THT 电子组件装配的两个工业机器人上进行了评估 - IJCAIRadNet:基于交通预测的时空道路图网络事故预测
使用历史数据进行 Spatio-Temporal 预测并利用神经模型 RadNet 预测交通系统的表现参数以诊断意外情况,结果显示及其精确且较先进的 F1 得分较高
- IJCAIGASP:门控注意力用于显著性预测
本研究提出了一种神经模型,旨在整合社交线索并权衡它们的影响,通过探索不同的融合技术,引入两个子网络以将注意力引导到相关的刺激物上,结果表明动态显著性预测不考虑社交线索的准确性有所提高。
- MORE: 基于度量学习的开放领域关系抽取框架
MORE 利用深度度量学习从标注数据中获取丰富的监督信号,并直接驱动神经模型学习语义关系表示,提高开放域关系抽取 OpenRE 的效率和性能。
- TransBoost:使用深度转导技术提高最佳 ImageNet 性能
本文提出了 TransBoost,这是一种细调任何深度神经模型并显著提高其性能的方法,有效地适用于各种图像分类数据集,并在多种结构上达到了最先进的传导性能。
- ACL商务电话对话中呼叫检测生产系统的开发
本文介绍了一种用于实时检测英语商业电话记录中呼叫目的陈述的商业系统的实现,包括构建训练数据的方法,以及如何通过结合基于 transformer 的分类器和一组规则的混合模型来实现呼叫目的的检测,并在各种类型的商业电话数据上获得了 88.6% - ACLCTM-- 大规模多视角推文主题分类模型
本文利用提出的神经模型 CTM,从社交媒体中的多模态内容、作者上下文和深层语义线索等方面进行综合建模,从而支持 $300$ 个主题的大规模话题分类,并在 Twitter 上实现了显着的性能提升(相对平均精度分数提高 20%),此方法已成功应 - DISK:基于领域约束的数学问题实例草图生成
本文提出了一种基于神经网络的数学文字问题生成模型,该模型利用领域知识检索最符合实际的 MWP 实例,并通过构建 Quantity Cell 图与方程编码器相互作用,提高 MWP 的文本衔接。实验结果表明,该模型在自动评估指标和人工评估指标方 - ACL使用互动反馈提高问答系统部署后的准确性和可解释性
该研究致力于探究用户交互对于问答系统的后部署改进效果,提出 FeedbackQA 数据集并使用其中的交互反馈信息训练神经模型,在提高 QA 系统准确性的同时,提供答案的说明以帮助用户做出正确决策。
- CVPRLISA: 学习手部的隐式形状和外观
该研究提出了一种名为 LISA 的全方位神经手模型,该模型可以捕捉准确的手部形状和外观,具有密集的表面对应性,并且易于重建。通过在大量 RGB 图像序列上训练,我们的模型可以预测每个手骨的颜色和距离,并结合预测的皮肤权重。实验表明,LISA - 无配对训练数据语音命名实体识别端到端模型
本文提出了一种基于外部模型训练的新型端到端神经模型,用于提取语音信号中的语义信息,并使用 SLU 神经模块替换 ASR 模型的顶层,实现端到端模型的构建。实验结果表明,此方法在 QUAERO 语料库上具有很高的性能。
- ACL编码语言信息与任务表现之间关系的可视化
使用 Pareto Optimality 观点研究编码的语言信息和任务性能之间的动态关系,提出了一种多目标优化的方法,通过对两个流行的 NLP 任务进行实验发现,一些句法信息有助于 NLP 任务,而编码更多的句法信息不一定能够提高性能。
- ICLRCrossBeam: 底部向上程序综合中的搜索学习
为了解决程序综合中搜索空间膨胀的问题,我们提出了 CrossBeam,它训练一个神经模型来学习自底向上的搜索策略,从而更加高效地探索程序空间。我们在字符串操作和逻辑编程领域实验后发现,CrossBeam 学会了高效搜索,相比最先进的技术,它 - ACL演讲者信息可指引模型更好地应用归纳偏好:以代码交替预测为例的案例研究
通过在受控的、受过教育的方式下丰富模型的说话人信息,可以指导模型捕捉相关的归纳偏差。在预测英语 - 西班牙双语对话中的代码切换点的任务中,加入基于社会语言学的说话者特征可以显著提高准确性。此外,我们发现通过将有影响力的短语添加到输入中,基于 - ACL使用边缘下面积和显著性指导混合训练对预训练语言模型进行校准
本文研究了 mixup 训练在自然语言理解(NLU)任务的作用,提出了一种用于预训练语言模型的 mixup 策略,并与模型 miscalibration 修正技术相结合来提高模型校准的方法,实验结果表明该方法在低预期的校准误差方面具有竞争优 - ACL变分序列计划数据生成技术
本论文考虑数据到文本生成的任务,着重提出了一种生成长篇文章的神经模型,增加了计划组件来组织高层次信息,在结构化变分模型的帮助下逐步推理出潜在计划,从而生成文本。在 RotoWire 和 MLB 两个数据到文本基准测试中,本模型表现优于基准模 - 基于语言模型的配对变分自编码器用于机器人语言学习
研究了通过预训练语言模型进行机器人的语言描述,在简单的物体操作场景下,实现了机器人行为和语言描述的双向绑定,并提出使用所提供的 PVAE-BERT 模型可以在真实场景中用于实现人机交互的指令。
- ACL基于二阶段跨度标注的中文分词与词性标注
提出了一种名为 SpanSegTag 的神经模型,采用跨度标记跟踪每个中文单词和其分词标记的概率,利用相邻字符的左右边界表示的双交注意力机制学习字符的 n-gram 特征,在中文分词和词性标注方面显著优于以 BERT 或 ZEN 编码器为基 - 引导可解释神经网络的因果结构
通过交替干预训练的方法,将神经模型与因果模型进行对齐并将其纳入训练,实现在保留数据驱动学习能力的同时较好地表达因果结构,并在结构视觉、语言导航和自然语言推理任务上通过与多任务训练目标和数据增强的对比达到较好的效果,制备了较好的解释性神经模型 - ICLR图神经网络的图压缩算法
本篇研究提出并研究了图卷积神经网络 (GNNs) 的图压缩问题,旨在将原始大图压缩成小型合成图以提高神经模型训练的时间性能,通过优化梯度匹配损失和设计一种策略同时压缩节点特征和结构信息,有效地将不同图数据集压缩成信息丰富的较小图并将其用于训