雑記 生成AI ComfyUI-Zludaの生成速度はどんなもん?

生成AIComfyUI-Zluda,Radeon,RTX3060,RX6800

ComfyUI-ZludaでRX6800はnVidia比でどこらへんか?

ComfyUI-ZludaでSDXL1024x1024、Loraちょっと入れて1.04~1.08it/sなんです
スケジューラーとかLoraやモデルで変動したりするので
1.2it/sとかにもなるので、何とも言えねえところですが。



思った以上に快適に使えてたりします。

使ってみてどんな感じ?

RadeonはVRAM多いので8GB/12GB機よりも快適にComfyUIが動きます。


Anytype_controlNet、Img2Img、Face Detailer and ESRGAN4+Anime6B
(アップスケール)も問題なく動作します。Loraがコケることもないです。
SDXLやSD1.5なら快適に動作すると思ってよいかなと。

技術論は検索すれば、みんなが書いてくれてるのでウチではあんまり触りませんが。


Face DetailerとESRGAN4+Anime6B(2倍)をタイリング(1024×1024)で実行して236秒。

RTX3060 12GBよりはVRAM差で有利かな?

スレ主が1.3 it/s(1秒に1.3ステップ)しかでない!
7 it/s(1秒に7ステップ)でない!と言う嘆きですが
SDXLはそんなもんだよと言う話。

元コメントが消えてますが、レスにRTX3060の詳細が記載されていて
VRAM不足が足を引っ張って遅くなることがある。と嘆きが書かれていました。

RTX3060は終売とはいえ、近年の1080pのゲームにオススメみたいなポジでしたし
所有者も多く、そこから生成AI試そうというユーザーが多いのかも?

現在ではVRAMにやさしいForgeやreForgeがあるので


この頃から比べて3060でも生成するだけなら、状況は改善してると思います。
FLUXも3060の12GBで1枚25秒で生成できるそうです。(参考リンク

現状ではComfyUI-ZludaでのFLUX1(特にdev)は厳しい

検証したところ、普通のワークフローだとエラー吹きまくります;
ロードの段階でエラー、プロンプトでエラーとさんざん悩むことに。

こちらのgguf ワークフローなら動作しました。が、それでも遅い;
blue_pencil-flux1-v0.1.0-Q8_0.ggufは解像度問わずに1枚が約5~6分で
flux1-dev-Q5_K_S.ggufは4分30秒と常用は厳しいかなぁと。
(Q4かQ5が品質の限界と言われてます)


flux1-dev-Q5_K_S.ggufで生成

flux1-schnell-Q4_0.ggufは1024×1024の4stepで51秒、512×512なら10秒
flux1-schnell-Q8_0.ggufで1024×1024の4stepで1分10秒ほどでした。
ただしschnellのQ4は品質も下がりますし、Q8でもプロンプトをけっこう無視しがちな印象。

正直二次キャラはdevじゃないならSDXLでいいやって感じですね。
実写寄りならschnellもありかも?



通常版Devは途中で止めましたが、1枚20Stepで50分コースでした(ムリ
RTX4070の12GBに通常版devで1024×1024が1分前後ですからねえ。

Nf4版はモデルのロードでエラー吹いてNGでした。
RoCmでは、対応が進んでそれなりに動作しているようですが
ComfyUI-ZludaではFLUXは対応されるまで時間が必要かなと感じました。

少なくとも


Generated by [PVC Style Model]Movable figure model Pony  (trained by MIAOKA) and shitty collage Richard roe.

ブログでの差し込みイラストに使う程度なら十分な速度っぽいので満足です。
RadeonでガチにやるならRoCmだとさらに速度がいい感じみたいです。
でもZludaも悪くないので、気にしなければWindowsのZludaも良い選択肢でしょうか。

それでもGeforceの方が性能は出ると思いますし
本気でやるならVRAM盛り盛りのGeforceでしょう、A100とか?(高い)

NAIが最初期モデルの公開へ


SD1.5のNAIリーク問題に、これで終止符が付くのかな?
リークされたモデルそのものが公式で公開されたっぽいので
表記ライセンスに従えば、NAIマージモデルもおとがめなしになるようです。

けっきょくリークされても、NAIの収益に大きな影響がでなかったのと
フィードバックはゼロじゃなかったって感じかなぁ
厳密にはアレでしょうけど、実質は追認みたいな感じですよね。
私に石を投げても何も変わらないので、よしなにお願いします。

しめ

今回の記事は、Radeonがそもそも生成AIは使えない認識がまだあるのと
情報がほとんどないって言うところから、書いてみようかなってなりました。

今まではLinux+RoCmかWindows+DirectMLしかなかったのですが
ComfyUI-Zludaのおかげで、Windowsでも楽に使えるようになってますので
所有してる人がいたら、お試しも悪くない選択かと。
(ただしあまりに古かったり、VRAM少ないとSD1.5用でSDXLはムリですが)

これから新規に生成AIを目的で楽にはじめるなら
悪いことは言わないので、Geforce買うほうが良いと思います。(結論

ただ中古が許せるとか、16GBで安くあげたい!とか
他人がやってないことしたい!という挑戦心がある人は
チャレンジしてもいいかもしれません、自己責任でお願いします。


Generated by [PVC Style Model]Movable figure model Pony  (trained by MIAOKA)

意図せず出力されたんですが、懐かしさで採用しました。
ツインテールでリボンセーラーって、90年代や2000年代初頭によくみたかも?
あ、リボンセーラーは難易度サギがヤバくて引退多数なプリコネでみたわ!

そういえばカプコンのアレがでましたねえ
たぶんガチガチっぽいけど、どーかなぁ。
サイフォンさんがMVC2以外は、ほぼ終わったようです。はっや。

あ、追記です。
うちみたいな場末のサイトにZIPファイル直接リンクしてくる
不届き物がいたので禁止にしました、記事にリンクしろ。
不都合があったらコメントでお願いします。

生成AI

Posted by Richard Roe