FUSION: 基于融合归一化统计的全面无监督测试时染色适应
研究融合预训练生成模型以增强目标生成模型训练的问题,提出使用 KL 散度加权重心作为最优融合机制,其中重心权重经过最优训练以最小化适合目标群体的适当损失。研究表明,通过使用基于扩散得分方法训练辅助生成模型时,可以高效地计算最优 KL 重心权重。此外,展示了当辅助模型适合其自身任务并且辅助任务组合能很好捕捉目标时,我们的融合方法在总变异距离的样本复杂度上是无维度限制的。我们提供了融合算法的简洁计算实现,并通过涉及混合模型和图像数据集的数值实验在低数据情况下验证其效率。
Jun, 2024
这项研究通过对一系列不同的语言表达的变化进行系统和实证评估,发现语言模型在适应特定的语义转换类型(如形态、词汇)的提示时具有潜力,这为开发能够处理语言表达的变异性的更强大的语言模型做出了贡献。
Jun, 2024
本文提出了一种无监督视频人员重识别的自监督精细聚类 (SSR-C) 框架,通过减少由于嘈杂跟踪结果引起的 tracklets 特征偏差的噪声过滤模块 (NFTP),将 tracklets 划分为 “子 tracklets”,利用自监督信号进行聚类并进一步合并子 tracklets 以生成可靠的伪标签,从而促进类内跨 tracklet 聚合;此外,通过效率提升模型学习的 Class Smoothing Classification (CSC) 损失函数。在 MARS 和 DukeMTMC-VideoReID 数据集上的广泛实验验证了我们提出的 SSR-C 方法在无监督视频人员重识别领域取得了最新成果,并与先进的有监督方法相媲美。
Jun, 2024
通过依存句法分析技术,我们在低资源语言乌尔都语的解析中取得了重要进展,并使用复杂的特征模型和 Nivreeager 算法,获得了一定准确率并评估了解析器的错误。
Jun, 2024
通过特征对齐的方法,在联合特征空间中通过模态之间的特征迁移和特征扩展实现了多模态信息的完全整合,从而可靠地捕获来自不同模态的特征之间的高级相互作用,并在多模态学习性能上取得了显著的提升。对包含时间序列、图像和文本的多模态数据集进行了广泛的实验评估,证明了我们的方法在性能上超越了其他流行的多模态融合方案,达到了最先进的水平。
Jun, 2024
UVIS 是一种无监督视频实例分割框架,利用 DINO 模型的密集形状先验和 CLIP 模型的开放识别能力,通过帧级伪标签生成、基于 Transformer 的 VIS 模型训练和基于查询的跟踪等三个关键步骤实现,通过采用双存储器设计,包括语义存储器和跟踪存储器,以提高无监督环境下 VIS 预测的质量,在 YoutubeVIS-2019 等相应基准上取得了 21.1 AP 的结果,展示了该无监督 VIS 框架的潜力。
Jun, 2024
通过竞争进化 (CompetEvo),能够使代理体在多智能体竞争场景中进化出满足战斗需求的适宜设计和策略,相较于固定形态的代理体,在战斗场景中获得优势,并展现出异形对峙时产生的惊人和印象深刻行为。
May, 2024
通过对比学习来增强异构模态的对齐性,提高融合过程的稳健性,该方法在 3D 目标检测任务中取得了最先进的性能,超过了 BEVFusion 1.8% 在 nuScenes 验证集上并且在存在对齐误差的条件下优于 BEVFusion 7.3%。
May, 2024
提出了一种利用空间分层技术的新型无监督医学图像特征提取方法,并提出了基于权重的目标函数以实现快速图像识别。该算法将图像的像素分为多个子域,并使用四叉树访问图像。利用单纯形算法提出了一种阈值优化技术。针对高光谱图像的非线性特征,提出了一种基于核函数的广义判别分析算法。该方法不仅可以克服传统方法易受光线影响的缺点,还可以快速准确地提取目标特征,对临床诊断具有重要的参考意义。
May, 2024