
左:拙作深月依真、右:Stable Diffusion (anything-v3 model and ControlNet, control_sd15_depth)にて生成された画像
ControlNetを導入して、手指が描写されないような素材からイラストを作って、いろいろ遊んでみました。
AIは手指を再現するのが苦手らしく、極めて不気味な手(※)を備えた美少女が誕生してしまうんですねぇ。
※openpose_handの併用で、この欠点を補うことができるそうですが、手の向きのバリエーションが少ないため、なかなか厳しいでしょう。なお、ControlNetの導入方法を知りたい方は、後発の私が教示できるわけもありませんので、ググってくださいませ。
また、ControlNetに頼らずとも、静止画の素材からGenerateするimg2imgという機能がデフォルトで備わっています。とはいえ、これまた出力結果が違うので、特性で使い分けになるでしょう。
とりあえず、今回は、自前の画像を用意します。

はい、拙作の深月依真(みづきえま)――MMDユーザーモデルでございます。
Stable Diffusionの出力結果には著作権が適用されませんが、元画像の依真はMikuMikuMovingを使って私が用意したものですので、れっきとした著作物でございます。念のため。
(この記事の内容を追確認するために自由に利用してかまいませんが、Generateした画像にコピーライト表示が残るような使い方はしないでください)素材画像の背景について: 無地の真っ白で試したところ、出力結果が思わしくない印象でした。そんなわけで、MMD上で依真をグラデのついた青いホリゾントの前に立たせて(下図参照)から画像出力を行い、元画像としました。

斜めってる理由は、物理で後ろ髪をめり込ませないため。且つ、カメラに映り込まないようにするため――映り込むとStableDiffusionが腕と勘違いしてくれちゃう……
さて、この画像をControlNetのdepthモデルに食わせて、いろんなバリエーションを作ってもらうのです。(作成中の様子↓)

そして、できあがったのがこちら↓ けっこう、肉感的なえっちぃ感じで出ました。それが狙いなんですけどネ。
スポンサーサイト