CDM:Diffusion Models Beat GANs on Image Synthesis
我们表明,扩散模型可以实现图像样本质量优于目前最先进的最先进的生成模型。我们通过一系列的消融实验找到一个更好的架构来在无条件的图像合成上实现这一点。对于条件图像的合成,我们在分类器的指导下进一步提高了样本质量:一种简单、计算效率高的方法,使用来自分类器的梯度来交换多样性和保真度。我们在ImageNet128×128上达到2.97,在ImageNet256×256上达到4.59,在ImageNet512×512上达到7.72,即使每个样本只有25次向前传递,同时保持更好的分布覆盖。最后,我们发现分类器引导与上采样扩散模型相结合,进一步将ImageNet256×256上的FID提高到3.94,ImageNet512×512上的FID提高到3.85。
具体参考CLASSIFIER-FREE DIFFUSION GUIDANCE
PreviousDDIM:DENOISING DIFFUSION IMPLICIT MODELSNextSCORE-BASED GENERATIVE MODELING THROUGH STOCHASTIC DIFFERENTIAL EQUATIONS
Last updated