AIで複数の画像を生成する際、同じキャラクターの顔や服装が全く一致しない経験はありませんか?Midjourneyが最近リリースしたキャラクター参照(-cref)と万物参照(Omni-Reference)機能は、この課題を解決するために開発されました。わずか1枚の参照画像で、キャラクターを複数のシーンで高度に統一し、あらゆる物体や生物をあなたの画像に「移植」できます。本記事では、この2つの新機能を詳しく解説し、実用的なパラメータテクニックも紹介します。
キャラクター参照(-cref)機能とは
キャラクター参照は、Midjourney V6以降で最も重要なアップデートの1つです。これまでは人物を生成する際、同じプロンプトを使用しても、出力ごとに顔のパーツ、体型、さらには服装が変わってしまうことがありました。しかし、現在はプロンプトの末尾に--cref <画像リンク>を追加することで、Midjourneyが参照画像のキャラクター特徴を抽出し、その後の各シーンで元のキャラクターの顔、体型、服装スタイルを維持した画像を生成できます。例えば、自分の自撮り写真を異なるシーンのイラストに変換したい場合、-crefを使えば簡単に実現できます。
-cwパラメータでキャラクターの一貫性強度を制御
細かいユーザーは気づくかもしれませんが、キャラクター参照は100%複製するわけではありません。--cwパラメータで参照の重みを調整できます。--cwの値は0から100の範囲で、デフォルトは0です。0に設定すると、Midjourneyはキャラクターの顔の特徴のみを参照します。100に上げると、髪型、服装、姿勢などの詳細も保持します。顔の一貫性を保ちつつ、キャラクターの服装やシーンを自由に変更したい場合は、--cwを20〜40に設定することをおすすめします。これにより、キャラクターの識別性を確保しつつ、AIに創造の余地を残せます。


