- 语言模型对道德的理解?走向鲁棒的道德内容检测
使用大规模语言模型和自然语言推理模型训练获得的抽象概念和常识知识,我们研发了多领域道德价值检测的多功能和强大方法,其中采用 GPT 3.5 模型作为基于零样本的无监督多标签道德价值分类器,消除了对标记数据的显式训练需求。与较小的基于自然语言 - 使用迁移学习的混合方法进行基于方面的情感分析
本研究提出了一种基于传输学习的混合方法,通过利用大型语言模型和传统句法依存关系生成弱监督注释,以解决当前最先进的 ABSA 研究中的显著挑战。在多个数据集上进行了大量实验,证明了该混合方法在方面词提取和方面情感分类任务中的有效性。
- 通过语义词汇资源增强现代监督式词义消歧模型
通过在现代监督式词义消歧模型中将语义特征引入分类器并考虑使用语义词典结构来增加训练数据,本文提出了一种有效的增强模型。通过研究不同类型的语义特征与本地上下文的交互作用,本文将所提出的模型扩展为一种新颖的多层架构,实验证明这种方法可以与现有的 - ACL在职业市场领域利用大型语言模型重新思考技能提取
通过在 6 个统一化技能提取数据集上使用大语言模型(LLMs)的少样本学习能力,我们研究了上下文学习的使用,以克服手动注释数据的高依赖性对这些方法的泛化能力的限制。我们展示了 LLMs 能够更好地处理在技能提取任务中句法复杂的技能提及,尽管 - 从异常检测到自动日志标记和开创性根本原因分析的进展
该研究引入了一个日志异常的分类法,并探索了自动数据标记来减轻标记挑战,同时研究了多种异常检测技术及其与特定异常类型的相互对齐关系。这篇论文丰富了我们对异常检测和自动标注的理解,为变革性的根本原因分析奠定了基础,从而使 IT 系统更具弹性,提 - 重审持续表示学习的监督
通过研究发现,在连续学习中,通过在监督模式和自监督模式下使用多层感知器,监督模式能够在连续表示学习方面优于自监督模式。
- 提升 AI 研究论文分析:基于因子转换器的序列建模法提取方法论组件
对于快速发展的新型科学方法学的名称的自动提取,本论文提出了一种基于序列建模的分解方法,通过利用方法学领域的宏观类别信息,如 NLP,RL 等,以及在快速发展的人工智能文献中进行实验来说明其可行性,并证明此分解方法在几次试验中超过现有技术基线 - 视觉 Transformer 需寄存器
提供额外的令牌以填补低信息背景区域中高范数令牌的内部计算,从而修复监督和自监控模型的问题,实现密集视觉预测任务的自监控视觉模型的最新技术,使用更大模型进行对象发现,为下游视觉处理提供更平滑的特征图和注意力图。
- 基于概念引导记忆的高效自适应人 - 物交互检测
本文提出了一种自适应 HOI 检测器,利用预训练模型并在长尾标记数据上进行训练,可有效地定位和推断人与物体之间的关系。该方法在 HICO-DET 和 V-COCO 数据集上获得了与最先进方法竞争力相当的结果,训练时间更短。
- 将字典融入神经网络结构从社交媒体中提取 COVID-19 医疗概念
将字典信息结合神经网络架构用于自然语言处理,从在线医学论坛中提取与 COVID-19 相关的多个概念,并通过监督模型在论坛数据上达到 90% 的宏观 F1 分数,研究表明将小领域字典用于深度学习模型可以改进概念提取任务。
- DiffHPE: 稳健、一致的扩散式 3D 人体姿势升级
我们提出了一种创新方法,结合前沿的扩散模型来进行 3D 人体姿势估计(3D-HPE),并展示了扩散模型提高人体姿势估计的准确性、稳健性和一致性的能力。使用 Human 3.6M 数据集,我们证明了该方法的有效性,并展示了其在面对遮挡、改善时 - 通过代码簿知识、NLI 和 ChatGPT 综合合成政治零射关系分类
最近的事件编码监督模型在超过模式匹配方法的性能。然而,它们仅依赖新注释,忽视了专家数据库中的丰富知识,限制了其在细粒度分类中的适用性。为了解决这些限制,我们探索了从已建立的注释代码库中获取知识的零样本方法,用于政治事件本体关系分类。我们的研 - 深度伪造视频检测:一项比较分析
本研究通过对监督和自监督模型进行全面的比较分析,评估了八种监督深度学习架构和两种基于转化器的使用自监督策略(DINO,CLIP)进行预训练的模型在四个基准数据集上的性能,同时还研究了模型大小和性能之间的权衡,以提供关于不同深度学习架构、训练 - 超伪空间中的点云组合性规范化再思考
这篇论文提出了一种将点云分类器特征嵌入双曲空间并显式规范化以应对零件 - 整体层次结构的方法,在点云分类中取得了显著的改进。
- MM探索传统机器学习技术用于病理听诊识别
利用机器学习辨别正常和异常肺部吸气声,采用窗口和特征聚合策略,使用数据进行建模并进行决策融合,得出平均 ROC 曲线下面积为 0.691 的监督模型。
- ACL答案整合:制定与基准测试
该研究论文探讨了问题回答系统中的多种答案情况,提出了答案合并问题的解决方案,通过对数据集的多个模型进行评估,发现监督模型表现较好,但仍需要进一步改进。
- 识别和表征在社交媒体中驳斥误信息的积极公民
本研究针对社交媒体中流传的错谬信息的问题,开发并公开了一个新的微博数据集,探究了区分发帖人和积极的公民的任务,在不同的社交媒体平台和语言下分别进行了研究,并对两种用户类别的语言使用差异进行了广泛分析。
- EMNLP连点成线:通过对齐词义库桥接单词和定义之间的语义关系
本研究提出了一种采用词义从不同词义库中匹配相同词义的定义句子(术语)的光泽对齐算法,并使用这些对齐的库训练模型以确定目标单词在上下文中的语义等效性,解决了有限的训练数据和集中于 WordNet 等预定义的词义库的问题;实验结果表明,所提出的 - AAAI使用人类解释监督模型关注力以强化自然语言推理
探究利用自然语言解释来监督模型的注意力权重,促使其更集中于解释中的关键词,从而提高模型性能,此方法的实验表明,这种改进可以适用于其它 NLI 数据集
- ACL从双语对齐到多语对齐:无监督平行文本挖掘
本文提出一种跨语言句子表示的学习方法,介绍了双轴转移的训练策略,并通过实验表明这种策略可以应用于获取具有多语言对齐的句子表示。