話題になっていたので、Stable Diffusionでまた遊んでみました。
記事によると、reference_onlyというプリプロセッサで元絵の顔や服装の特徴が継承された画が生成できるということでした。
なので、今回は
「特定のキャラクターに似たポートレート画像を出力させる」ことを目標にやってみました。
試行錯誤を重ねた結果、出来上がったのがこちら:

画像をクリックで拡大

画像をクリックで拡大

いくらでも量産できます
通常ですと、まずLoraの利用が思いつきますが、ControlNetのプリプロセッサだけで、比較的かんたんに実現できることが分かります。用意するのは参照元の画像2枚だけ。どんな画像を用意すればいいのかと、事前にやっておくべきことを要点にまとめました。
上記の画像を出力できるようになるまで、実験を兼ねて1時間くらいでした。あらかじめやるべきことが分かっていれば、もっと短くできると思います。準備がひとたび整ってしまえば、あとは出力にかかる時間だけです。
以下、AUTOMATIC1111版Stable Diffusion web UI (Stable Diffusion v1.21)の環境で、ControlNet v1.1 をこの目的で使う場合のハウツーの解説になります。
なお、使う学習モデル(checkpoint)によって、生成される“顔”の傾向や癖があります。真似させたいキャラの顔と学習モデルの生成物とが近い方が説得力が増します。なので、かけ離れた者同士を無理矢理組み合わせるような場合は、難易度が上がるだろうことをあらかじめご承知おき下さい。
具体的な設定値やプロンプト(呪文)も列記しておりますので、参考にして頂けると思います。使用modelのダウンロード先などは明記しておりませんが、検索して頂ければすぐに知れる、有名どころのhuggingface.coやcivitai.comからダウンロードできます。※6月5日追記:ダウンロード先を明記いたしました。
「Stable Diffusionとはなんぞや」とか、「ローカルの実行環境をどうやって用意するのか」といった基礎知識については説明しておりませんので、初歩的な理解は事前になされていることが望ましいです。
Purchase and enjoy MagabloSM!
This content is a MagabloSM (pay-to-view).
Purchase this content to continue to read!
What is MagabloSM?
- 関連記事
-
スポンサーサイト