嘗試本地部署Stable Diffusion

虫子游戈
·
·
IPFS
·

之前試玩了一下Midjourney,透過Discord 訪問,但很快我就把免費體驗次數耗完了,於是跑去淘寶買了一個月的共享帳戶繼續試玩。然而新鮮感兩三天就過去了,我基本上就很少碰了。這兩天又來了點興趣,試了下本地部署Stable Diffusion。

我主要參考了這篇文章《 本地部署Stable Diffusion教程,親測可以安裝成功》by Pancras Wen。

基本上我按照其描述的過程安裝的,只遇到一點小問題。

首先是下載git 和Python,他這裡建議安裝Python 3.10.9,沒有說明原因,我也不知道為啥。

然後下載stable-diffusion-webui 軟體庫:新建一個資料夾,然後透過git 複製:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

下載完成後,執行webui-user.bat 批次文件,讓其自動下載安裝其餘元件。

如果過程中遇到pip 更新提示,就新開一個cmd 然後執行綠色的提示指令即可。

這個過程在複製taming-transformers 和CodeFormer 時遇到了問題,出現了error code 128, 可以參考這裡的報告

對於taming-transformers,我重新啟動webui-user.bat 批次成功解決了,但是等了不少時間。

對於CodeFormer,重啟多次webui-user.bat 也沒能解決,所以我換了git bash 來克隆,完成後再執行webui-user.bat。

後面就沒啥問題,繼續下載。

之後我們就能透過瀏覽器存取http://127.0.0.1:7860來呼叫Stable Diffusion。

還是很方便使用的,各個參數設定都有說明,懸浮滑鼠便能看到。

試著調用了幾次預設設置,感覺效果相當差。

圖1:預設的結果,prompt 為「a man is standing in front of a tank with the muzzle pointing at the man」

為了產生高品質的影像,自然需要合適的設定;其中採樣器的選擇是非常重要的。這裡有一篇指南值得參考:《 Stable Diffusion Samplers: A Comprehensive Guide 》,其中給了一些使用建議:

1.如果想要使用相對新的模型,快速生成,品質好,可以選擇:

  • DPM++ 2M Karras ,執行20-30 步

  • UniPC ,執行20-30 步

2.如果你想要高品質影像,但不在乎收斂情況,可以選擇:

  • DPM++ SDE Karras ,執行8-12 步(注意:速度較慢)

  • DDIM ,執行10-15 步

3.如果想要產生的結果穩定,可重現,就不要使用老式採樣器,即Euler a、DPM2 a、DPM++ 2S a、DPM++ 2S a Karras。

4.如果偏好簡單的選擇,可以使用EulerHeun ;Heun 的步數不宜過多,以節省時間。

圖2:UniPC 採樣器執行22 步驟的結果,prompt 為「a crying Chinese woman with iron chain around the neck」

我也看了看另外兩篇教程,這裡索引:


CC0 公眾領域貢獻宣告

喜歡我的作品嗎?別忘了給予支持與讚賞,讓我知道在創作的路上有你陪伴,一起延續這份熱忱!

虫子游戈故事创造者,言论自由。 博客地址:https://www.czyouge.xyz 社交网络:https://mastodon.social/@czyouge
  • 來自作者
  • 相關推薦

虫族十爪眜睇尔于古战场悼人族死士

恶童

甘勇