仕組みとしては何となくザックリとした感じとしてとらえていましたが、実際にはどういう感じなんでしょうね?
と言うわけで、Flux1-devは推奨値50のところそれ以下だったらどうなってるのだろう?という疑問が湧いてきたので実際にやってみます。
Step1で終わらせてみると
さすがになんだかわからん状態です。(笑)
(追記)step5ができました。
写真の画像としてみるとまだ厳しい感じです。経験上20でもまともそうな画像が得られたので半分の10では?
こーなりました…
何かとりあえずまともそうじゃないですかね…てか、後ろ向いてるんだ(汗
今のところ時間があればやってみたいなーレベルで、safetensorsからggufへの変換についてもう少し突っ込んで知りたいという点と、stable-diffusion.cppで指定したStep数以外の中間地点でも画像出力させたら面白いんじゃないかなとか。
生成AIの原理として、チャットを前提に考え何らかの処理で画像を起こして、あとは適当な部分に注目して細部化して整えていくのかと思ってたのですが、根本的に違ってるってことなんでしょうね。非常に興味深い…。いまstep5も出力してるからそのあと15も出してみましょうかね…。
(追記)できました…15でこれってことは正面を向くまで劇的変化がどこかでおこるのでしょうか…気になりますねw
ただ、20と比べると輪郭とか髪とかおんなじだったりするんですよ…まるで騙し絵です。




0 件のコメント:
コメントを投稿