Nov, 2023

非交叉扩散的语义一致性

TL;DR该研究纸介绍了一种创新的生成建模方法 —— 非交叉扩散,用于学习常微分方程模型。该方法通过引入升维输入的策略,有效地将两个分布采样点连接起来,以确保增强语义一致性。实证结果表明,非交叉扩散方法能够显著减少语义不一致,提升扩散模型的整体性能。