From c5e2eed005f88feeb5e11278896f9cf9b4abb31f Mon Sep 17 00:00:00 2001 From: yuhan Date: Fri, 11 Jul 2025 15:17:00 +0800 Subject: [PATCH] modify docs errors --- tutorials/source_zh_cn/generative/diffusion.ipynb | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/tutorials/source_zh_cn/generative/diffusion.ipynb b/tutorials/source_zh_cn/generative/diffusion.ipynb index 7bc80f7b95..b69c7d3bce 100644 --- a/tutorials/source_zh_cn/generative/diffusion.ipynb +++ b/tutorials/source_zh_cn/generative/diffusion.ipynb @@ -1812,11 +1812,11 @@ "\n", "- 改进的去噪扩散概率模型([Nichol et al., 2021](https://arxiv.org/abs/2102.09672)):发现学习条件分布的方差(除平均值外)有助于提高性能\n", "\n", - "- 用于高保真图像生成的级联扩散模型([[Ho et al., 2021](https://arxiv.org/abs/2106.15282)):引入级联扩散,它包括多个扩散模型的流水线,这些模型生成分辨率提高的图像,用于高保真图像合成\n", + "- 用于高保真图像生成的级联扩散模型([Ho et al., 2021](https://arxiv.org/abs/2106.15282)):引入级联扩散,它包括多个扩散模型的流水线,这些模型生成分辨率提高的图像,用于高保真图像合成\n", "\n", "- 扩散模型在图像合成上击败了GANs([Dhariwal et al., 2021](https://arxiv.org/abs/2105.05233)):表明扩散模型通过改进U-Net体系结构以及引入分类器指导,可以获得优于当前最先进的生成模型的图像样本质量\n", "\n", - "- 无分类器扩散指南([[Ho et al., 2021](https://openreview.net/pdf?id=qw8AKxfYbI)):表明通过使用单个神经网络联合训练条件和无条件扩散模型,不需要分类器来指导扩散模型\n", + "- 无分类器扩散指南([Ho et al., 2021](https://openreview.net/pdf?id=qw8AKxfYbI)):表明通过使用单个神经网络联合训练条件和无条件扩散模型,不需要分类器来指导扩散模型\n", "\n", "- 具有CLIP Latents (DALL-E 2) 的分层文本条件图像生成 ([Ramesh et al., 2022](https://cdn.openai.com/papers/dall-e-2.pdf)):在将文本标题转换为CLIP图像嵌入之前使用,然后扩散模型将其解码为图像\n", "\n", -- Gitee