最近 ComfyUI對于Stable Cascade的支持越來越好了一些,官方也放出來一些工作流供參考。
這里簡單分享幾個比較常用的基礎工作流。
(如果還沒有下載模型,可以先閱讀上一篇Stable Cascade升級,現在只需要兩個模型)
🌋文生圖
StageC階段:
首先是使用基礎的模型加載節點,把stage_c模型加載進來,然后正常輸入正向提示詞和負向提示詞,稍微需要注意的是采樣里邊的參數和latentimage生成節點要使用StableCascade_EmptyLatentImage,這里邊的42,指的是1024分辨率需要壓縮42倍率去生成一個小的latent,用于后續Stage_c模型繼續采樣;
StageB階段:
將第一步生成的latent進行二次采樣和放大;這里需要將StageC階段的condition和stageC生成的latent作為控制條件進行輸入,然后繼續在空白噪聲上進行采樣;
最后通過VAE,也就是之前提到的三段式里邊的StageA,將圖像從潛空間還原為像素空間,就生成圖像了,這里的VAE是從StageB的模型中直接調取的。
測試用的提示詞為:A fashionably dressed anthropomorphic cat struts down the runway,3d,disney studio,cartoon,cute,
🚠圖生圖
輸入圖像為:
提示詞為:super man, close-up, walking in the desert, oasis in the background, nighttime, with a moon in the sky,
輸出圖像為:
效果部分,可以看到會參考輸入圖像畫風和構圖,并將畫面主體根據提示詞做了替換。
圖生圖部分,比較特別的是stabelcascade_stageC_vaeencode這個節點,通過這個節點將像素空間的圖像轉化為潛空間,類似之前的vae encoder,只是這里要將輸出的latent分別發給stageC階段的采樣器和StageB階段的采樣器,另外,StageC階段的采樣器,降噪不要太高,0.6左右比較合適,否則就跟圖像關系不大了。
🚀多圖融合
?提示詞留空,輸入圖像為兩張,分別是:
?輸出圖像為:
嗯,水母被巧妙的放在海邊的盒子中了,語義上是合理的。
CLIP Vision Encode節點可用于加載特定的CLIP視覺模型,類似于CLIP模型用于對文本提示進行編碼,CLIP視覺模型用于對圖像進行編碼。
注意這里的圖片是可以多級串聯的,只是串聯的太多,每張圖片的影響力理論上也會降低。
🎈工作流地址:
comfyui官方示例:Stable Cascade Examples | ComfyUI_examples
當然你也可以到網盤下載:https://pan.quark.cn/s/9b155ffd02ca
🎉寫在最后~
去年的時候寫了兩門比較基礎的Stable Diffuison WebUI的基礎文字課程,大家如果喜歡的話,可以按需購買,在這里首先感謝各位老板的支持和厚愛~
?StableDiffusion系統基礎課(適合啥也不會的朋友,但是得有塊Nvidia顯卡):
https://blog.csdn.net/jumengxiaoketang/category_12477471.html
??🎆綜合案例課程(適合有一點基礎的朋友):
https://blog.csdn.net/jumengxiaoketang/category_12526584.html
??
這里是聚夢小課堂,就算不買課也沒關系,點個關注,交個朋友😄