學習目標:
論文
實驗
學習時間:
2024.2.24-2024.3.1
學習產出:
論文
仔細看了論文"All are Worth Words: A ViT Backbone for Diffusion Models",”DiffiT: Diffusion Vision Transformers for Image Generation“,“Scalable Diffusion Models with Transformers”。其中”Scalable Diffusion Models with Transformers“代碼還沒有發布;,”DiffiT: Diffusion Vision Transformers for Image Generation“只有256分辨率的,沒有32分辨率;正在跑"All are Worth Words: A ViT Backbone for Diffusion Models"的實驗。
實驗
1.修改了stylegan2倉庫的超參,cifar-10的效果還是不行。
2.根據ViTGAN和ViTGAN的BaseLine ContraD中的實驗,重新找了兩個stylegan2的倉庫。第一個是Contrad中的stylegan2,目前已經跑完,修改好了代碼在跑diffusion-gan;第二個是論文”Data-Efficient GANs with DiffAugment“實現的模型DiffAugment-stylegan2-pytorch。都可以單獨跑stylegan2。