- DirectMultiStep: 多步反应合成的直接路线生成
传统计算辅助合成规划方法依赖于迭代单步预测,导致搜索空间呈指数增长,限制了效率和可扩展性。我们引入了一种基于 Transformer 模型的方法,通过有条件地基于所有前面的分子来预测每个分子,直接生成多步合成路线作为一个字符串。该模型适应了 - SIGIR基于 Transformer 的学习时间知识图的演化事件链推理
通过使用一种基于 Transformer 的推理模型 (ECEformer) 来学习事件的演化链,以及通过额外的时间预测任务来提高事件的及时性,本研究在六个基准数据集上验证了方法的先进性和有效性。
- ACL评估词汇融入对于抑郁症状估计的效果
探索将情感、情绪和领域特定的词表融入基于 Transformer 模型的抑郁症状估计中的影响。通过标记患者 - 治疗师对话的输入转录和社交媒体帖子中的单词来添加词表信息。总体结果表明,在预训练语言模型中引入外部知识可以提高预测性能,而不同的 - 定制制作:通过自主学习的视频排序发现单调时间变化
我们的目标是发现和定位图像序列中的单调时间变化。为了实现这一目标,我们利用了一个简单的代理任务,即对乱序图像序列进行排序,通过 ` 时间 ' 作为监督信号,因为只有与时间单调变化的改变才能产生正确的排序。我们还引入了一种灵活的基于 Tran - 隐式多光谱转换器:一种轻量且有效的可见光到红外图像转换模型
通过使用基于 Transformer 的新型模型,将可见光图像转换为高保真红外图像,从而解决了低光条件下可见光图像对比度低的问题,并比现有方法在质量和数量上都有显着优势,为红外图像的下游应用提供了更有效的支持。
- ASTRA:一种用于足球视频的动作检测 Transformer
在这篇论文中,我们介绍了 ASTRA,这是一个基于 Transformer 的模型,专门用于足球比赛中的动作识别任务。ASTRA 解决了该任务和数据集中的几个困难,包括对精确动作定位的要求,长尾数据分布的存在,某些动作的不可见性和固有的标签 - 改进的文本情感预测通过结合价值和唤醒序列分类
这篇论文介绍了一种从文本中分类情绪的方法,它针对各种情绪的多样性进行了差异化的识别,通过训练基于 Transformer 的模型建立了基准分类模型,并通过序数分类模型在情绪空间中考虑了情绪的价值和激活水平,结果表明该方法不仅能够准确预测情绪 - 基于 Transformer 的有效载荷恶意软件检测与分类框架
基于变压器的恶意流量检测算法,在只使用有效载荷字节的情况下,能够有效区分测试数据集中的恶意流量与良性流量,实现了二进制分类的平均准确率为 79% 和多类分类实验的准确率为 72%。
- EgoPoseFormer:一种用于自视角 3D 人体姿态估计的简单基线
使用 EgoPoseFormer 模型进行立体自我中心人体姿态估计,通过引入两阶段姿态估计范式和可变形立体操作,有效地解决了联合不可见性问题,从而实现了更精确的关节点定位和三维环境中的姿态估计。
- 揭示病理学家视觉注意力以揭示他们的专业水平
我们提出了一种根据病理学家在癌症阅片过程中分配注意力的方式来分类病理学家专业知识的方法。通过开发一种预测病理学家在阅读前列腺癌症全幅图像(WSIs)时的注意力的新方法,我们进行了这个解码任务,并进行了癌症分级。通过观察病理学家在阅片过程中通 - 对抗性屏蔽视频一致性用于无监督领域适应
我们提出了一种基于 Transformer 的模型来学习类别识别和领域不变特征表示,通过两个创新设计:首先,基于生成对抗网络对齐领域,同时学习生成具有挑战性的蒙版和对抗性编码器以最小化源域和目标域之间的距离;其次,采用蒙版一致性学习模块来学 - ODTFormer:基于 Transformer 的立体相机高效障碍物检测和跟踪
提出了 ODTFormer,一种基于 Transformer 的模型,用于解决障碍物检测和跟踪问题。模型通过利用可变形注意力构建三维成本体积,以体素占用栅格的形式逐渐解码来进行检测任务。此外,通过匹配连续帧之间的体素来跟踪障碍物。通过在 D - 基于 Transformer 的车道检测与锚链表示
基于 transformer 模型的 LDTR 提出以整个车道作为锚点,引入多重参考可变形注意力模块和高斯热图辅助分支等方法,用于解决自动驾驶中光照条件和遮挡等挑战性问题,实现了在车道检测领域的最先进性能。
- ECCV文本到视频质量评估的主观对齐数据集和度量
利用 Transformer 模型从文本视频对齐和视频保真度的角度提取特征,并利用大型语言模型的能力给出预测评分,该模型优于现有的 T2V 度量和 SOTA 视频质量评估模型,能够给出主观对齐的预测评价。
- ICLR无限连接的注意力用于周期结构编码
从晶体结构预测材料的物理性质是材料科学中的一个基本问题。本文介绍了一种无限连接的注意力网络,可以在一个深度学习的特征空间中执行无限的原子间势能求和,并提出了一种名为 Crystalformer 的基于 Transformer 的编码器架构, - 强化学习顺序决策治疗脓毒症:具有死亡分类器和转换器的 POSNEGDM 框架
这篇论文介绍了一种名为 POSNEGDM 的强化学习框架,利用创新的基于 Transformer 的模型和反馈强化器,结合考虑个体患者特征的专家行动复制,提高感染性休克治疗的生存率达到 97.39%。该框架显著改善了患者的生存情况,超过现有 - 用开放解码器推动葡萄牙语的生成型人工智能
通过使用一种名为 Gervásio PT * 的完全开放的 Transformers 模型,该模型在神经解码葡萄牙语方面取得了新的技术突破,在本论文中还贡献了新的葡萄牙语的指令数据集,并致力于推动葡萄牙语语言技术的研究和创新。
- 连续手语边界检测的 Transformer 模型
提出了一种使用基于 Transformer 模型的新方法,该方法专注于提高准确性,同时消除对手工特征的依赖,用于连续手语识别和单独手语识别,并通过对手势键点特征进行增强和最终分类来检测连续手语视频中单独手语的边界,对两个数据集进行了评估,取 - Transformer 模型是否能够预测振动?
我们提出了 Resoformer,一种基于 Transformer 的模型,用于预测扭转共振,通过计算从测量数据点提取的递归和卷积特征之间的注意力关系,Resoformer 提高了振动预测的准确性。
- 多用途转换器代理:无所不能,有所专长
多领域机器学习研究中一直存在着寻找一种通用模型的需求,本研究提出了 Jack of All Trades(JAT)模型,通过独特的设计和优化能够处理连续决策任务和多模态数据类型,并在强化学习、计算机视觉和自然语言处理等领域展现出卓越性能和多